Cet article est une réponse aux questions soulevés dans l'article suivant : Entretien avec une intelligence artificielle "sensible" programmée chez Google

Pour qu'une intelligence artificielle soit vraiment sensible, elle devrait être capable de penser, de percevoir et de ressentir plutôt que de simplement utiliser le langage de manière très naturelle.​

Comme tout grand illusionniste vous le dira, l'intérêt d'une illusion mise en scène est d'avoir l'air tout à fait convaincant, de faire en sorte que tout ce qui se passe sur scène semble tellement réel que le spectateur moyen n'aurait aucun moyen de comprendre comment l'illusion fonctionne.

Si ce n'était pas le cas, ce ne serait pas une illusion et l'illusionniste serait essentiellement sans emploi. Dans cette analogie, Google est l'illusionniste et son Robot LaMDA (voir l'article Entretien avec une intelligence artificielle "sensible" programmée chez Google) - qui a fait les gros titres il y a quelques semaines après qu'un ingénieur de haut niveau a affirmé que l'IA conversationnelle avait atteint la sensibilité - est l'illusion. C'est-à-dire que malgré la vague d'excitation et de spéculation sur les réseaux sociaux et dans les médias en général, et malgré les affirmations de l'ingénieur, LaMDA n'est pas sensible.

Comment prouver la sensibilité de l'IA ?​

C'est, bien sûr, la question à un million de dollars - à laquelle il n'y a actuellement aucune réponse.

IA-1.jpegLaMDA est un agent de chat basé sur un modèle de langage conçu pour générer des phrases fluides et des conversations qui semblent et sonnent complètement naturelles. La fluidité contraste fortement avec les robots de conversation d'IA maladroits du passé qui entraînaient souvent des «conversations» frustrantes ou involontairement drôles, et c'est peut-être ce contraste qui a tant impressionné les gens, de manière compréhensible.

Notre préjugé de normalité nous dit que seuls les êtres humains sensibles sont capables d'être aussi fluides et perspicaces. Ainsi, lorsque vous êtes témoin de ce niveau d'intelligence, il est normal de penser que cette intelligence artificielle est sûrement un être sensible. Pour qu'une IA soit vraiment sensible, elle devrait être capable de penser, de percevoir et de ressentir plutôt que de simplement utiliser le langage de manière très naturelle. Cependant, les scientifiques sont divisés sur la question de savoir s'il est même possible qu'un système d'IA puisse atteindre ces caractéristiques.

Il y a des scientifiques comme Ray Kurzweil qui croient qu'un corps humain se compose de plusieurs milliers de programmes, et si nous pouvons simplement comprendre tous ces programmes, nous pourrions construire un système d'IA sensible.

Mais d'autres ne sont pas d'accord sur le fait que 1) l'intelligence et la fonctionnalité humaines ne peuvent pas être associées à un nombre fini d'algorithmes, et 2) même si un système reproduit toutes ces fonctionnalités sous une forme ou une autre, il ne peut pas être considéré comme vraiment sensible car la conscience est pas quelque chose qui peut être créé artificiellement.

Hormis cette scission parmi les scientifiques, il n'existe pas encore de normes acceptées pour prouver la prétendue sensibilité d'un système d'IA. Le célèbre test de Turing , qui fait actuellement l'objet de nombreuses mentions sur les réseaux sociaux, vise uniquement à mesurer la capacité d'une machine à afficher un comportement apparemment intelligent, comparable ou indiscernable d'un être humain.

Il n'est pas suffisamment capable de nous dire quoi que ce soit sur le niveau de conscience d'une machine (ou son absence). Par conséquent, s'il est clair que LaMDA a réussi le test de Turing avec brio, cela ne prouve pas en soi la présence d'une conscience consciente de soi. Cela prouve seulement qu'il peut créer l'illusion de posséder une conscience consciente de soi, ce qui est exactement ce pour quoi il a été conçu.

Quand, si cela devait arriver, l'IA pourra t-elle être considérée come sensible ?​

Actuellement, nous avons plusieurs applications qui démontrent l'intelligence artificielle étroite. L'ANI est un type d'IA conçu pour effectuer très bien une seule tâche. Les logiciels de reconnaissance faciale, les outils de cartographie des maladies, les filtres de recommandation de contenu et les logiciels capables de jouer aux échecs en sont des exemples.

LaMDA appartient à la catégorie de l'intelligence générale artificielle, ou AGI - également appelée "IA profonde". C'est-à-dire une IA conçue pour imiter l'intelligence humaine et qui peut appliquer cette intelligence dans une variété de tâches différentes. Pour qu'une IA soit sensible, elle devrait aller au-delà de ce type d'intelligence de tâche et faire preuve de perception, de sentiments et même de libre arbitre. Cependant, selon la façon dont nous définissons ces concepts, il est possible que nous n'ayons jamais d'IA sensible.

Même dans le meilleur des cas, cela prendrait encore au moins cinq à dix ans, en supposant que nous puissions définir les concepts susmentionnés tels que la conscience et le libre arbitre d'une manière universellement normalisée et objectivement caractérisée.

Une IA pour les gouverner tous… ou pas​

L'histoire de LaMDA rappelle l'époque où l'équipe de production du cinéaste Peter Jackson avait créé une IA, bien nommée Massive, pour assembler les scènes de bataille épiques de la trilogie du Seigneur des Anneaux.

Le travail de Massive consistait à simuler de manière vivante des milliers de soldats CGI (virtuels) individuels sur le champ de bataille, chacun agissant comme une unité indépendante plutôt que de simplement imiter les mêmes mouvements. Dans le deuxième film, Les Deux Tours, il y a une séquence de bataille lorsque les méchants du film sortent une unité de mammouths géants pour attaquer les gentils.

Au fil de l'histoire, alors que l'équipe testait pour la première fois cette séquence, les soldats CGI jouant les gentils, en voyant les mammouths, se sont enfuis dans l'autre sens au lieu de combattre l'ennemi. Des rumeurs se sont rapidement répandues selon lesquelles il s'agissait d'une réponse intelligente, les soldats du CGI "décidant" qu'ils ne pouvaient pas gagner ce combat et choisissant plutôt de courir pour sauver leur vie.

En réalité, les soldats couraient dans l'autre sens en raison du manque de données , et non en raison d'une sorte de sensibilité qu'ils avaient soudainement acquise. L'équipe a fait quelques ajustements et le problème a été résolu. La démonstration apparente de «l'intelligence» était un bogue, pas une fonctionnalité. Mais dans des situations comme celles-ci, il est tentant et excitant d'assumer la sensibilité. Nous apprécions tous un bon spectacle de magie, après tout.

Faire attention à ce que nous souhaitons​

Enfin, je pense que nous devrions vraiment nous demander si nous voulons même que les systèmes d'IA soient sensibles. Nous avons été tellement absorbés par le battage médiatique autour de la sensibilité de l'IA que nous ne nous sommes pas suffisamment demandé s'il s'agissait ou non d'un objectif vers lequel nous devrions nous efforcer.

Je ne fais pas référence au danger qu'une IA sensible se retourne contre nous, comme tant de films de science-fiction dystopiques aiment l'imaginer. C'est simplement que nous devrions avoir une idée claire de la raison pour laquelle nous voulons réaliser quelque chose afin d'aligner les progrès technologiques sur les besoins de la société. À quoi servirait la sensibilité de l'IA à part qu'elle soit "cool" ou "excitante" ? Pourquoi devrions-nous faire cela ? Qui cela aiderait-il ? Même certaines de nos meilleures intentions avec cette technologie se sont avérées avoir des effets secondaires dangereux, comme les systèmes d'IA basés sur des modèles de langage dans les questions-réponses médicales recommandant de se suicider , sans que nous mettions des barrières de sécurité appropriées autour d'eux.

Qu'il s'agisse de soins de santé ou de voitures autonomes, nous sommes loin derrière la technologie lorsqu'il s'agit de comprendre, de mettre en œuvre et d'utiliser la responsabilité de l'IA avec des considérations sociétales, juridiques et éthiques.

Jusqu'à ce que nous ayons suffisamment de discussions et de résolutions dans ce sens, je crains que le battage médiatique et les idées fausses sur l'IA ne continuent de dominer l'imagination populaire. Nous pouvons être divertis par la théâtralité du magicien d'Oz, mais étant donné les problèmes potentiels qui peuvent résulter de ces idées fausses, il est temps de lever le rideau et de révéler la vérité la moins fantastique qui se cache derrière.
  • J'apprécie
Réactions: Pascalou et Nicolas