Le défi moral de l'intelligence artificielle : entre créativité et restriction

13/11/2024

L'Intelligence Artificielle n'est pas seulement là pour rester, mais elle est là pour nous remplacer dans bon nombre de nos fonctions, comme si c'était le scénario d'une dystopie cauchemardesque devenue une réalité controversée.


Dans un article du New York Times, le célèbre linguiste, philosophe, scientifique cognitif, historien, critique social et activiste politique Noam Chomsky donne son point de vue critique sur l'un des systèmes d'Intelligence Artificielle les plus controversés à ce jour, le Chat GPT.


"Il est à la fois comique et tragique, comme Borges aurait pu le souligner, que tant d'argent et d'attention se concentrent sur quelque chose d'aussi insignifiant, quelque chose de si trivial comparé à l'esprit humain, qui, par la force du langage, comme le disait Wilhelm von Humboldt, peut faire un "usage infini de moyens finis", créant des idées et des théories d'une portée universelle". - Noam Chomsky.


Jorge Luis Borges a écrit un jour que vivre à une époque de grands dangers et de promesses, c'est expérimenter à la fois la tragédie et la comédie, avec "l'imminence d'une révélation" pour nous comprendre nous-mêmes et le monde. Aujourd'hui, les avancées supposément révolutionnaires de l'intelligence artificielle sont à la fois une source d'inquiétude et d'optimisme.


Optimisme parce que l'intelligence est le moyen par lequel nous résolvons les problèmes. Inquiétude parce que nous craignons que la souche d'intelligence artificielle la plus populaire et à la mode (l'apprentissage automatique) ne dégrade notre science et n'avilisse notre éthique en incorporant dans notre technologie une conception fondamentalement erronée du langage et de la connaissance.


ChatGPT d'OpenAI, Bard de Google et Sydney de Microsoft sont des merveilles de l'apprentissage automatique. En gros, ils prennent d'énormes quantités de données, recherchent des motifs en elles et deviennent de plus en plus compétents pour générer des résultats statistiquement probables, comme un langage et une pensée d'apparence humaine.


Ces programmes ont été salués comme les premiers signes dans l'horizon de l'intelligence artificielle générale, ce moment tant prophétisé où les esprits mécaniques surpassent les cerveaux humains non seulement quantitativement en termes de vitesse de traitement et de taille de mémoire, mais aussi qualitativement en termes de perspicacité intellectuelle, de créativité artistique et de toute autre faculté distinctive de l'être humain.


Ce jour viendra, mais il n'est pas encore là, contrairement à ce que l'on peut lire dans des titres hyperboliques et calculer à partir d'investissements insensés. La révélation borgesienne de la compréhension n'a pas eu lieu et n'aura pas lieu si les programmes d'apprentissage automatique comme ChatGPT continuent de dominer le domaine de l'intelligence artificielle.


Aussi utiles que ces programmes puissent être dans certains domaines spécifiques (ils peuvent être utiles en programmation informatique, par exemple, ou pour suggérer des rimes pour des vers légers), nous savons par la science linguistique et la philosophie de la connaissance qu'ils diffèrent grandement de la manière dont les êtres humains raisonnent et utilisent le langage. Ces différences imposent des limites significatives à ce que ces programmes peuvent faire, les codant avec des défauts impossibles à éradiquer.


Contrairement à ChatGPT et à ses semblables, l'esprit humain n'est pas une lourde machine statistique de comparaison de motifs, qui se gorge de centaines de téraoctets de données et extrapole la réponse la plus probable dans une conversation ou la réponse la plus probable à une question scientifique. Au contraire, l'esprit humain est un système étonnamment efficace et même élégant qui fonctionne avec de petites quantités d'informations ; il ne cherche pas à inférer des corrélations brutes entre des points de données, mais à créer des explications.


Par exemple, un jeune enfant qui apprend une langue est en train de développer (inconsciemment, automatiquement et rapidement à partir de données minuscules) une grammaire, un système incroyablement sophistiqué de principes et de paramètres logiques.


Cette grammaire peut être comprise comme une expression du "système d'exploitation" inné, installé dans les gènes, qui donne aux êtres humains la capacité de générer des phrases complexes et de longs fils de pensée.


Lorsque les linguistes tentent de développer une théorie sur la raison pour laquelle une langue donnée fonctionne comme elle le fait ("Pourquoi ces phrases sont-elles considérées comme grammaticales et pas d'autres ?"), ils construisent consciemment et laborieusement une version explicite de la grammaire que l'enfant construit par instinct et avec une exposition minimale à l'information. Le système d'exploitation de l'enfant est totalement différent de celui d'un programme d'apprentissage automatique.



En fait, ces programmes sont bloqués dans une phase préhumaine ou non humaine de l'évolution cognitive. Leur défaut le plus profond est l'absence de la capacité la plus critique de toute intelligence : dire non seulement ce qui est le cas, ce qui a été le cas et ce qui sera le cas (c'est là description et prédiction), mais aussi ce qui n'est pas le cas et ce qui pourrait et ne pourrait pas être le cas. Ce sont les ingrédients de l'explication, la marque de la vraie intelligence.


Ci-dessous, un exemple. Supposons que vous teniez une pomme dans votre main. Maintenant, laissez tomber la pomme. Vous observez le résultat et dites : "La pomme tombe". C'est une description. Une prédiction pourrait être la phrase : "La pomme tombera si j'ouvre la main". Les deux sont précieux et les deux peuvent être corrects.


Mais une explication va plus loin : elle inclut non seulement des descriptions et des prédictions, mais aussi des conjectures contrefactuelles comme "n'importe quel objet de ce type tomberait", plus la clause supplémentaire "en raison de la force de gravité" ou "en raison de la courbure de l'espace-temps" ou autre. C'est une explication causale : "La pomme n'aurait pas tombé si ce n'avait été de la force de gravité". C'est penser.


Le talon d'Achille de l'apprentissage automatique est la description et la prédiction ; il ne propose aucun mécanisme causal ni lois physiques. Bien sûr, toute explication de type humain n'est pas nécessairement correcte ; nous sommes faillibles.


Mais cela fait partie de ce que signifie penser : pour avoir raison, il doit être possible de se tromper. L'intelligence ne consiste pas seulement à faire des conjectures créatives, mais aussi des critiques créatives. La pensée à la manière humaine est basée sur des explications possibles et une correction des erreurs, un processus qui limite peu à peu les possibilités qui peuvent être considérées comme rationnelles (comme l'a dit Sherlock Holmes au Dr Watson : "Une fois que vous avez éliminé l'impossible, ce qui reste, aussi improbable que cela puisse paraître, doit être la vérité").


En conclusion, malgré les défis moraux posés par l'intelligence artificielle et les interrogations quant à son impact sur la société, il est crucial de maintenir un équilibre entre les aspects positifs et les préoccupations légitimes. Les progrès réalisés par des systèmes comme ChatGPT, Bard de Google et Sydney de Microsoft sont indéniables et représentent des jalons importants dans le développement de l'IA. Bien que nous ne soyons pas encore au stade où ces systèmes peuvent rivaliser pleinement avec la complexité de la pensée humaine, ils ouvrent la voie à de nouvelles possibilités et découvertes. En fin de compte, en cultivant une approche prudente et réfléchie de l'intégration de l'IA dans notre quotidien, nous pouvons tirer parti de ses avantages tout en naviguant avec sagesse à travers les défis éthiques et sociaux qu'elle soulève.