De nouvelles connaissances sur la manière dont le cerveau ajuste les connexions synaptiques pendant l’apprentissage pourraient inspirer une IA plus robuste
Des chercheurs de l'unité de dynamique des réseaux cérébraux du MRC et du département d'informatique de l'université d'Oxford ont défini un nouveau principe pour expliquer comment le cerveau ajuste les connexions entre les neurones au cours de l'apprentissage. Ces nouvelles connaissances pourraient guider de nouvelles recherches sur l’apprentissage dans les réseaux cérébraux et inspirer des algorithmes d’apprentissage plus rapides et plus robustes en intelligence artificielle.
L’essence de l’apprentissage est d’identifier quels composants du pipeline de traitement de l’information sont responsables d’une erreur de sortie. En intelligence artificielle, cela est réalisé par rétropropagation : ajuster les paramètres d'un modèle pour réduire l'erreur de sortie. De nombreux chercheurs pensent que le cerveau utilise un principe d’apprentissage similaire.
Cependant, le cerveau biologique est supérieur aux systèmes d’apprentissage automatique actuels. Par exemple, nous pouvons apprendre de nouvelles informations en les voyant une seule fois, alors que les systèmes artificiels doivent être entraînés des centaines de fois avec les mêmes informations pour les apprendre. De plus, nous pouvons apprendre de nouvelles informations tout en conservant les connaissances que nous possédons déjà, tandis que l’apprentissage de nouvelles informations dans les réseaux neuronaux artificiels interfère souvent avec les connaissances existantes et les dégrade rapidement.
Ces observations ont motivé les chercheurs à identifier le principe fondamental employé par le cerveau lors de l’apprentissage. Ils ont examiné certains ensembles d'équations mathématiques existants décrivant les changements dans le comportement des neurones et dans les connexions synaptiques entre eux. Ils ont analysé et simulé ces modèles de traitement de l'information et ont découvert qu'ils employaient un principe d'apprentissage fondamentalement différent de celui utilisé par les réseaux de neurones artificiels.
Dans les réseaux de neurones artificiels, un algorithme externe tente de modifier les connexions synaptiques afin de réduire les erreurs, tandis que les chercheurs proposent que le cerveau humain règle d'abord l'activité des neurones dans une configuration équilibrée optimale avant d'ajuster les connexions synaptiques. Les chercheurs estiment qu’il s’agit en fait d’une caractéristique efficace de la manière dont le cerveau humain apprend. En effet, cela réduit les interférences en préservant les connaissances existantes, ce qui accélère l’apprentissage.
Écrire dans Neurosciences naturelles, les chercheurs décrivent ce nouveau principe d'apprentissage, qu'ils ont appelé « configuration prospective ». Ils ont démontré dans des simulations informatiques que les modèles utilisant cette configuration prospective peuvent apprendre plus rapidement et plus efficacement que les réseaux neuronaux artificiels dans les tâches auxquelles sont généralement confrontés les animaux et les humains dans la nature.
Les auteurs utilisent l'exemple réel d'un ours pêchant le saumon. L'ours peut voir la rivière et a appris que s'il peut également entendre la rivière et sentir le saumon, il est susceptible d'en attraper un. Mais un jour, l'ours arrive à la rivière avec une oreille endommagée, il ne peut donc plus l'entendre.
Dans un modèle de traitement de l'information par un réseau de neurones artificiels, ce manque d'audition se traduirait également par un manque d'odorat (car en apprenant qu'il n'y a pas de son, la rétropropagation modifierait de multiples connexions dont celles entre les neurones codant pour la rivière et le saumon) et l'ours le ferait. conclure qu'il n'y a pas de saumon et avoir faim. Mais dans le cerveau animal, l’absence de son n’interfère pas avec la connaissance qu’il y a toujours l’odeur du saumon, donc le saumon est toujours là pour être capturé.
Les chercheurs ont développé une théorie mathématique montrant que laisser les neurones s’installer dans une configuration prospective réduit les interférences entre les informations au cours de l’apprentissage. Ils ont démontré que la configuration prospective explique mieux l’activité neuronale et le comportement dans plusieurs expériences d’apprentissage que les réseaux neuronaux artificiels.
Le professeur Rafal Bogacz, chercheur principal de l'unité de dynamique des réseaux cérébraux du MRC et du département de neurosciences cliniques de Nuffield à Oxford, déclare : « Il existe actuellement un grand écart entre les modèles abstraits exécutant une configuration prospective et notre connaissance détaillée de l'anatomie des réseaux cérébraux. pour combler le fossé entre les modèles abstraits et les cerveaux réels, et comprendre comment l'algorithme de configuration prospective est mis en œuvre dans les réseaux corticaux anatomiquement identifiés.
Le premier auteur de l'étude, le Dr Yuhang Song, ajoute : « Dans le cas de l'apprentissage automatique, la simulation de configurations prospectives sur les ordinateurs existants est lente, car ils fonctionnent de manière fondamentalement différente du cerveau biologique. Un matériel inspiré du cerveau doit être développé, qui sera capable de mettre en œuvre une configuration prospective rapidement et avec une faible consommation d'énergie.
Plus d'information:
Yuhang Song et al, Déduire l'activité neuronale avant la plasticité comme fondement de l'apprentissage au-delà de la rétropropagation, Neurosciences naturelles (2024). DOI : 10.1038/s41593-023-01514-1
Fourni par l'Université d'Oxford
Citation: De nouvelles connaissances sur la façon dont le cerveau ajuste les connexions synaptiques pendant l'apprentissage pourraient inspirer une IA plus robuste (3 janvier 2024) récupéré le 3 janvier 2024 sur
Ce document est soumis au droit d'auteur. En dehors de toute utilisation équitable à des fins d'étude ou de recherche privée, aucune partie ne peut être reproduite sans autorisation écrite. Le contenu est fourni seulement pour information.