Les humains modifient leur propre comportement lors de la formation de l’IA
Une nouvelle étude interdisciplinaire menée par des chercheurs de l’Université de Washington à Saint-Louis a révélé un phénomène psychologique inattendu à l’intersection du comportement humain et de l’intelligence artificielle : lorsqu’on leur a dit qu’ils entraînaient l’IA à jouer à un jeu de négociation, les participants ont activement ajusté leur propre comportement pour paraître plus juste et équitable, une impulsion qui a des implications potentiellement importantes pour les développeurs d’IA du monde réel.
« Les participants semblaient motivés à former l’IA à l’équité, ce qui est encourageant, mais d’autres personnes pourraient avoir des objectifs différents », a déclaré Lauren Treiman, doctorante à la Division des sciences informatiques et des données et auteure principale de l’étude. « Les développeurs doivent savoir que les gens changeront intentionnellement leur comportement lorsqu’ils sauront que celui-ci sera utilisé pour former l’IA. »
L’étude est publiée dans Actes de l’Académie nationale des sciencesLes co-auteurs sont Wouter Kool, professeur adjoint de psychologie et de sciences du cerveau à Arts & Sciences, et Chien-Ju Ho, professeur adjoint d’informatique et d’ingénierie à la McKelvey School of Engineering. Kool et Ho sont les conseillers de Treiman pour ses études supérieures.
L’étude comprenait cinq expériences, chacune avec environ 200 à 300 participants. Les sujets devaient jouer au « jeu de l’ultimatum », un défi qui les obligeait à négocier de petits gains en espèces (de 1 à 6 dollars seulement) avec d’autres joueurs humains ou un ordinateur. Dans certains cas, on leur a dit que leurs décisions seraient utilisées pour apprendre à un robot IA comment jouer au jeu.
Les joueurs qui pensaient entraîner l’IA étaient systématiquement plus susceptibles de chercher à obtenir une part équitable des gains, même si cette équité leur coûtait quelques dollars. Il est intéressant de noter que ce changement de comportement a persisté même après qu’on leur ait dit que leurs décisions n’étaient plus utilisées pour entraîner l’IA, ce qui suggère que l’expérience de façonner la technologie a eu un impact durable sur la prise de décision.
« En tant que spécialistes des sciences cognitives, nous nous intéressons à la formation des habitudes », a déclaré Kool. « C’est un exemple intéressant, car le comportement a perduré même lorsqu’il n’était plus nécessaire. »
Cependant, les motivations qui ont motivé ce comportement ne sont pas tout à fait claires. Les chercheurs n’ont pas demandé aux participants quelles étaient leurs motivations et leurs stratégies spécifiques, et Kool a expliqué que les participants n’avaient peut-être pas ressenti une forte obligation de rendre l’IA plus éthique. Il est possible, a-t-il déclaré, que l’expérience ait simplement fait ressortir leur tendance naturelle à rejeter les offres qui leur semblaient injustes.
«Ils ne réfléchissent peut-être pas vraiment aux conséquences futures», a-t-il déclaré. «Ils pourraient simplement choisir la solution de facilité.»
« L’étude souligne l’importance du facteur humain dans la formation de l’IA », a déclaré Ho, un informaticien qui étudie les relations entre les comportements humains et les algorithmes d’apprentissage automatique. « Une grande partie de la formation de l’IA repose sur des décisions humaines », a-t-il déclaré. « Si les biais humains lors de la formation de l’IA ne sont pas pris en compte, l’IA qui en résultera sera également biaisée. Ces dernières années, nous avons vu de nombreux problèmes émerger de ce type d’inadéquation entre la formation et le déploiement de l’IA. »
Certains logiciels de reconnaissance faciale, par exemple, sont moins précis pour identifier les personnes de couleur, a expliqué Ho. « C’est en partie parce que les données utilisées pour former l’IA sont biaisées et non représentatives », a-t-il expliqué.
Treiman mène actuellement des expériences de suivi pour mieux comprendre les motivations et les stratégies des personnes qui forment l’IA. « Il est très important de prendre en compte les aspects psychologiques de l’informatique », a-t-elle déclaré.
Plus d’information:
Lauren S. Treiman et al., Les conséquences de la formation de l’IA sur la prise de décision humaine, Actes de l’Académie nationale des sciences (2024). DOI: 10.1073/pnas.2408731121
Fourni par l’Université de Washington à Saint-Louis
Citation:Les humains modifient leur propre comportement lors de la formation de l’IA (2024, 7 août) récupéré le 7 août 2024 à partir de
Ce document est soumis au droit d’auteur. En dehors de toute utilisation équitable à des fins d’étude ou de recherche privée, aucune partie ne peut être reproduite sans autorisation écrite. Le contenu est fourni à titre d’information uniquement.