Intelligence artificielle : un aperçu
L’intelligence artificielle fait parler beaucoup d’elle depuis le lancement du chatbot intelligent ChatGPT en novembre 2022 dans le grand public. Ainsi, le thème de l’IA a fait l’objet de gros titres dans l’actualité tant elle regorge de potentialités que de risques. Ainsi, un grand cabinet new-yorkais a fait référence à des cas fictifs et erronés pour défendre un client. Ou encore, dans une université à Lyon des élèves ont utilisé ChatGPT pour faire leurs devoirs avec les mêmes exemples …
Intelligence artificielle : qu’est-ce que c’est ?
IA signifie l’intelligence artificielle. Selon le Petit Robert, l’intelligence artificielle (IA ) est un ensemble de théories et de techniques développant des programmes informatiques complexes capables de simuler certains traits de l’intelligence humaine (raisonnement, apprentissage…).
On appelle Intelligence artificielle générative, le fait d’être capable, à partir de grands volumes de données (textes, sons, images…), de dégager des modèles et d’en générer de nouveaux, ou d’améliorer les modèles existants.
Intelligence artificielle : où exactement ?
A l’échelle individuelle, l’intelligence artificielle facilite notre quotidien.
En effet, elle est présente dans de nombreuses applications comme par exemple les assistants vocaux, les moteurs de recherche ou encore la reconnaissance faciale. Par exemple, en ayant un compte gratuit Spotify, à partir de votre sélection initiale, l’IA peut vous suggérer des chansons susceptibles de vous plaire.
Dans le monde de l’entreprise, l’exemple d’Amazon est le plus parlant. En effet, les robots gèrent en parfaite autonomie les entrepôts. Et seuls quelques humains effectuent juste une supervision.
De même, Walmart, le géant américain de la distribution utilise l’intelligence artificielle pour accélérer la livraison des commandes en un temps record grâce à une parfaite maîtrise de la chaîne d’approvisionnement. Pour en savoir plus : https://www.youtube.com/watch?v=Nf-P-qNej3c
Le cas ChatGPT
Pour l’instant, ChatGPT est l’ultime chatbot (ou assistant virtuel) fondé sur l’intelligence artificielle générative disponible au grand public. Lancé en novembre 2022, il peut faire beaucoup de choses : à partir de prompts (questions), il peut :
- faire des recherches,
- synthétiser des informations,
- expliquer des concepts scientifiques en termes simplifiés
- faire du coding
- détecter les émotions des utilisateurs
- faire preuve d’humour, entre autres.
De même, Bard de Google répond aux mêmes attentes que ChatGPT. Cependant, la base d’informations de Bard est actualisée et il est toujours possible d’accéder au moteur de recherche via le bouton “Google it”. En revanche, ChatGPT ne permet de recueillir des informations que de 2021 au plus tard.
En tout cas, il faut s’attendre à de notables modifications et/ou améliorations dans les années à venir.
Intelligence artificielle : Et après ? Quelle évolution possible ?
Dans ce contexte, en parallèle des avancées sur le fonctionnement du cerveau, l’intelligence artificielle développe les modèles de fondation dont font partie le deep learning. L’objectif est de créer des modèles d’intelligence artificielle qui reposent sur une quantité non négligeable de données (de l’ordre d’une centaine de gigabytes), variées, non étiquetées et pré-entraînées pour réaliser un certain nombre de tâches.
Une fois le modèle de fondation créé, il est toujours possible de le modifier et de l’affiner en vue d’accomplir différents types de tâches.
Le deep learning (DL)
Ainsi, le deep learning est un système qui intègre des milliards de données notamment sous forme d’images, de sons ou de textes, le but étant de mimer l’activité cérébrale des humains à partir d’exemples. Une application concrète aujourd’hui est visible dans l’industrie automobile (la voiture autonome) ou encore dans le marketing digital.
Pour en savoir plus : https://www.retengr.com/2021/01/22/deep-learning-definitions-applications-avantages-inconvenients/
Le machine learning (ML)
Le machine learning est une technique d’intelligence artificielle qui utilise des algorithmes reposant sur une quantité non négligeable de données et qui permettent la création de modèles d’apprentissage à partir desquels peuvent s’opérer des prévisions. L’intérêt réside ici dans le fait que ces modèles n’ont pas besoin d’être programmés.
Une application concrète est le lancement de nouveaux produits en fonction de la prévision des tendances des consommateurs ou encore la reconnaissance faciale.
Intelligence artificielle : Limites
Cependant, si impressionnantes que recèlent les potentialités de l’intelligence artificielle, cette nouvelle technologie n’est pas exempte d’erreurs, de limites. D’ailleurs, dans le cas de modèles d’IA générative, il est question d’hallucinations (c’est-à-dire d’erreurs).
Ainsi,une hallucination est une réponse fausse ou trompeuse qui est présentée comme un fait certain. Par exemple, Fast Company, un magazine de management américain, a demandé à ChatGPT d’écrire un article de presse sur le dernier trimestre financier de Tesla. Le chatbot s’est exécuté mais sans référence aux chiffres publiés de la société en question.
Quelles sont les principales raisons qui conduisent à des erreurs ?
Selon les spécialistes, sont avancées les raisons suivantes :
- des biais
- un manque de compréhension du contexte, du monde réel
- les limites du processus de l’entraînement des données
Quelles en sont les conséquences ?
- des problèmes éthiques, surtout lorsque les résultats font état de stéréotypes notoires. Par exemple, Amazon a été critiqué pour n’embaucher dans ses entrepôts qu’un certain type de profils
- une mauvaise prise de décisions puisque les réponses sont erronées
- un manque de confiance dans l’intelligence artificielle en raison des erreurs
- des poursuites judiciaires car qui dit erreurs dit conséquences pouvant être fâcheuses pour les utilisateurs
Quelles mesures prendre pour limiter de telles hallucinations ?
Parmi les pistes explorées, on peut citer :
- une amélioration dans l’apprentissage qui peut se traduire par un affinement dans la sélection des données, les méthodes utilisées
- une meilleure transparence vis-à-vis des utilisateurs en leur expliquant le mode de fonctionnement du modèle et ses limites.
Autrement dit, ses mises en garde doivent conduire l’utilisateur à rechercher des informations supplémentaires pour asseoir les résultats de l’intelligence artificielle. Et, d’une manière générale, pour limiter ces hallucinations, il est recommandé un contrôle accru soit effectué par les êtres humains, tant du côté des développeurs que des utilisateurs.
Intelligence artificielle : Et qu’en est-il de la réglementation ?
Pour l’instant, il n’existe pratiquement pas de réglementation en vigueur.
- Aux Etats-Unis
Il y a la loi appelé “AI Disclosure Act” promulguée en 2023. Il est dit que tout support (audio, vidéo, texte, image, etc. ) généré par l’intelligence artificielle doit inclure un avis de non-responsabilité “DISCLAIMER: this output has been generated by artificial intelligence”.
- En Europe
Début décembre 2023, les 27 se sont mis d’accord sur le principe d’une réglementation à venir le principe d’une réglementation à venir concernant l’intelligence artificielle.
Mais globalement, pour l’instant, il n’existe pas une coordination internationale en matière d’intelligence artificielle
Et Open AI dans tout cela ?
De son côté Open AI a présenté un plan susceptible de limiter les risques en décembre 2023.
Pour ce faire, le laboratoire spécialisé dans l’intelligence artificielle vise à :
- d’une part, à évaluer ses modèles, chaque résultat s’inscrivant dans une carte de score en fonction de critères : cybersécurité, menaces (CBRN, pour chimiques, biologiques, radiologiques et nucléaires) persuasion, autonomie du modèle.
- de l’autre, une nouvelle gouvernance après le scandale du renvoi puis de la réintégration de son PDG, Sam Altman. Ainsi, côté exploitation, il existe 2 structures : technique pour tout ce qui a trait à l’élaboration des modèles et une structure consultative de sécurité inter-fonctionnelle en lien avec le management. A noter, le conseil d’administration aura désormais un droit de regard sur les décisions prises.
Conclusion
Ainsi, en dépit des potentialités vertigineuses que recèle l’intelligence artificielle, il n’empêche que cette technologie présente de nombreux risques y compris des hallucinations. Et qui plus est, en l’absence d’un cadre réglementaire nettement défini, des poursuites judiciaires sont à prévoir. En dernière date, aux États-Unis, des journaux et magazines comme le New-York Times s’en prennent à OpenAI et à Microsoft. Le principal grief invoqué est le non-respect de la propriété intellectuelle. Et, d’une manière générale, les problèmes éthiques et de sécurité sont prédominants dans cette technologie tant ubiquitaire et prometteuse.
Aussi, il faut s’attendre à un meilleur encadrement à venir de l’utilisation de l’intelligence artificielle. Cela concernerait tant les États par une meilleure coordination globale que les entreprises spécialisées dans l’IA. D’ailleurs, à l’instar d’OpenAi, une meilleure collaboration et coordination entre les équipes techniques et le management pourraient devenir la norme dans ce secteur.
Et dans cette optique, pourquoi ne pas concevoir une organisation internationale à but non lucratif ? Elle pourrait être consacrée à l’intelligence artificielle. Et qui plus est, cette entité réunirait des représentants des sociétés technologiques, des professeurs émérites et des gouvernements du monde entier. L’objectif serait alors de collaborer ensemble pour trouver des solutions techniques et de gouvernance en vue de tirer le meilleur parti de l’IA. A voir …