L’IA de détection de mensonges pourrait inciter les gens à porter des accusations imprudentes, préviennent les chercheurs
Bien que les gens mentent beaucoup, ils s’abstiennent généralement d’accuser les autres de mentir en raison des normes sociales qui entourent les fausses accusations et la politesse. Mais l’intelligence artificielle (IA) pourrait bientôt bousculer les règles.
Dans une étude publiée le 27 juin dans la revue iScience, les chercheurs démontrent que les gens sont beaucoup plus susceptibles d’accuser les autres de mentir lorsqu’une IA porte une accusation. Les résultats donnent un aperçu des implications sociales de l’utilisation de systèmes d’IA pour la détection des mensonges, ce qui pourrait éclairer les décideurs politiques lors de la mise en œuvre de technologies similaires.
“Notre société a des normes fortes et bien établies concernant les accusations de mensonge”, déclare l’auteur principal Nils Köbis, spécialiste du comportement à l’Université de Duisburg-Essen en Allemagne.
“Il faudrait beaucoup de courage et de preuves pour accuser ouvertement les autres de mentir. Mais notre étude montre que l’IA pourrait devenir une excuse pour que les gens se cachent derrière eux, afin d’éviter d’être tenus responsables des conséquences des accusations. “
La société humaine a longtemps fonctionné sur la base de la théorie de la vérité par défaut, qui explique que les gens supposent généralement que ce qu’ils entendent est vrai. En raison de cette tendance à faire confiance aux autres, les humains sont très mauvais pour détecter les mensonges. Des recherches antérieures ont montré que les gens ne réussissent pas mieux que le hasard lorsqu’ils tentent de détecter des mensonges.
Köbis et son équipe voulaient savoir si la présence de l’IA modifierait les normes sociales établies et les comportements en matière d’accusations.
Pour mener leur enquête, l’équipe a demandé à 986 personnes d’écrire une description vraie et une description fausse de ce qu’elles prévoyaient de faire le week-end prochain. L’équipe a ensuite entraîné un algorithme avec les données pour développer un modèle d’IA capable d’identifier correctement les affirmations vraies et fausses dans 66 % des cas, une précision bien supérieure à celle qu’une personne moyenne peut atteindre.
Ensuite, l’équipe a recruté plus de 2 000 personnes pour qu’elles lisent une déclaration et décident si elle est vraie ou fausse. Les chercheurs ont divisé les participants en quatre groupes : « de base », « forcé », « bloqué » et « choix ».
Dans le groupe de référence, les participants ont répondu vrai ou faux sans l’aide de l’IA. Dans le groupe forcé, les participants recevaient toujours une prédiction de l’IA avant de se faire leur propre jugement. Dans les groupes bloqués et à choix, les participants avaient la possibilité de recevoir une prédiction générée par l’IA. Les personnes qui demandaient la prédiction au groupe bloqué ne la recevraient pas, contrairement aux personnes du groupe de choix.
L’équipe de recherche a constaté que les participants du groupe de référence avaient une précision de 46 % lorsqu’ils identifiaient les déclarations vraies ou fausses. Seulement 19 % des personnes du groupe ont accusé les déclarations qu’ils ont lues d’être fausses, même s’ils savaient que 50 % des déclarations étaient fausses. Cela confirme que les gens ont tendance à s’abstenir d’accuser les autres de mentir.
Dans le groupe forcé où les participants recevaient une prédiction de l’IA, qu’ils la souhaitent ou non, plus d’un tiers des participants ont accusé les déclarations d’être fausses. Le taux est nettement plus élevé que celui des groupes de référence et bloqués qui n’ont reçu aucune prédiction d’IA.
Lorsque l’IA a prédit qu’une affirmation était vraie, seulement 13 % des participants ont déclaré que l’affirmation était fausse. Cependant, lorsque l’IA a prédit qu’une affirmation était fausse, plus de 40 % des participants ont accusé l’affirmation d’être fausse.
De plus, parmi les participants qui ont demandé et reçu une prédiction de l’IA, une écrasante majorité d’entre eux ont adopté la prédiction et ont porté des accusations lorsque l’IA a déclaré que la déclaration était fausse.
“Cela montre qu’une fois que les gens disposent d’un tel algorithme, ils s’y fieront et changeront peut-être leur comportement. Si l’algorithme qualifie quelque chose de mensonge, les gens sont prêts à sauter dessus. C’est assez alarmant et cela montre que nous devrions soyez très prudent avec cette technologie”, déclare Köbis.
Il est intéressant de noter que les gens semblaient réticents à utiliser l’IA comme outil de détection de mensonges. Dans les groupes bloqués et à choix, seul un tiers des participants ont demandé la prédiction de l’IA.
Le résultat a été surprenant pour l’équipe, car les chercheurs avaient dit à l’avance aux participants que l’algorithme pouvait détecter les mensonges mieux que les humains. “C’est peut-être à cause de cet effet très robuste que nous avons observé dans diverses études que les gens ont trop confiance dans leurs capacités de détection des mensonges, même si les humains sont vraiment mauvais dans ce domaine”, explique Köbis.
L’IA est connue pour commettre des erreurs fréquentes et renforcer les préjugés. Compte tenu de ces résultats, Köbis suggère que les décideurs politiques devraient reconsidérer l’utilisation de la technologie sur des questions importantes et sensibles comme l’octroi de l’asile aux frontières.
“Il y a un tel battage médiatique autour de l’IA, et beaucoup de gens pensent que ces algorithmes sont vraiment très puissants et même objectifs. Je crains vraiment que cela incite les gens à trop s’y fier, même si cela ne fonctionne pas très bien. ” dit Köbis.
Plus d’information:
Les algorithmes de détection de mensonges perturbent la dynamique sociale du comportement d’accusation, iScience (2024). DOI : 10.1016/j.isci.2024.110201. www.cell.com/iscience/fulltext… 2589-0042(24)01426-3
Citation: L’IA de détection de mensonge pourrait inciter les gens à porter des accusations inconsidérées, préviennent les chercheurs (27 juin 2024) récupéré le 27 juin 2024 de
Ce document est soumis au droit d’auteur. En dehors de toute utilisation équitable à des fins d’étude ou de recherche privée, aucune partie ne peut être reproduite sans autorisation écrite. Le contenu est fourni seulement pour information.