Appliquer une lentille neuroscientifique à la faisabilité de la conscience artificielle
L’augmentation des capacités des systèmes d’intelligence artificielle (IA) laisse penser que ces systèmes pourraient bientôt devenir conscients. Cependant, nous sous-estimons peut-être les mécanismes neurobiologiques qui sous-tendent la conscience humaine.
Les systèmes d’IA modernes sont capables de nombreux comportements étonnants. Par exemple, lorsque l’on utilise des systèmes comme ChatGPT, les réponses sont (parfois) assez humaines et intelligentes. Lorsque nous, les humains, interagissons avec ChatGPT, nous percevons consciemment le texte généré par le modèle de langage, tout comme vous percevez actuellement consciemment ce texte ici.
La question est de savoir si le modèle linguistique perçoit également notre texte lorsque nous le lui incitons. Ou s’agit-il simplement d’un zombie fonctionnant sur la base d’algorithmes intelligents de correspondance de modèles ? Sur la base du texte qu’il génère, il est facile de croire que le système pourrait être conscient.
Nouvelle recherche publiée dans la revue Tendances en neurosciencesJaan Aru, Matthew Larkum et Mac Shine adoptent un angle neuroscientifique pour répondre à cette question.
Les trois neuroscientifiques affirment que même si les réponses de systèmes comme ChatGPT semblent conscientes, elles ne le sont probablement pas. Premièrement, les entrées dans les modèles linguistiques manquent du contenu informationnel incarné et intégré caractéristique de notre contact sensoriel avec le monde qui nous entoure. Deuxièmement, les architectures des algorithmes d’IA actuels manquent de fonctionnalités clés du système thalamocortical qui ont été liées à la conscience chez les mammifères.
Enfin, les trajectoires évolutives et développementales qui ont conduit à l’émergence d’organismes vivants conscients n’ont sans doute aucun parallèle dans les systèmes artificiels tels qu’envisagés aujourd’hui. L’existence des organismes vivants dépend de leurs actions et leur survie est intimement liée à des processus cellulaires, intercellulaires et organisationnels à plusieurs niveaux aboutissant à l’action et à la conscience.
Ainsi, même s’il est tentant de supposer que ChatGPT et des systèmes similaires pourraient être conscients, cela sous-estimerait gravement la complexité des mécanismes neuronaux qui génèrent la conscience dans notre cerveau. Les chercheurs ne parviennent pas à un consensus sur la manière dont la conscience s’élève dans notre cerveau. Ce que nous savons, et ce que souligne ce nouvel article, c’est que les mécanismes sont probablement bien plus complexes que ceux qui sous-tendent les modèles linguistiques actuels.
Par exemple, comme le soulignent ces travaux, les vrais neurones ne s’apparentent pas aux neurones des réseaux neuronaux artificiels. Les neurones biologiques sont de véritables entités physiques, qui peuvent croître et changer de forme, alors que les neurones des grands modèles de langage ne sont que des morceaux de code dénués de sens. Nous avons encore un long chemin à parcourir avant de comprendre la conscience et, par conséquent, un long chemin vers des machines conscientes.
Plus d’information:
Jaan Aru et al, La faisabilité de la conscience artificielle à travers le prisme des neurosciences, Tendances en neurosciences (2023). DOI : 10.1016/j.tins.2023.09.009
Fourni par le Conseil estonien de la recherche
Citation: Application d’une lentille neuroscientifique à la faisabilité de la conscience artificielle (27 octobre 2023) récupéré le 27 octobre 2023 sur
Ce document est soumis au droit d’auteur. En dehors de toute utilisation équitable à des fins d’étude ou de recherche privée, aucune partie ne peut être reproduite sans autorisation écrite. Le contenu est fourni seulement pour information.