Une nouvelle étude révèle que les outils d’IA sont souvent peu fiables, trop confiants et unilatéraux
Diagramme illustratif du traitement d’une réponse des agents de recherche profonde dans les huit mesures du cadre Deeptrace. Crédit: arxiv (2025). Doi: 10.48550 / arxiv.2509.04499
L’intelligence artificielle peut bien nous faire gagner du temps en trouvant des informations plus rapidement, mais ce n’est pas toujours un chercheur fiable. Il fait fréquemment des affirmations non étayées qui ne sont pas sauvegardées par des sources fiables. Une étude de Pranav Narayanan Venkit à Salesforce AI Research et ses collègues a révélé qu’environ un tiers des déclarations faites par des outils d’IA comme la perplexité, vous.com et le chat Bing de Microsoft n’étaient pas soutenus par les sources qu’ils ont fournies. Pour le GPT 4.5 d’OpenAI, le chiffre était de 47%.
Pour découvrir ces problèmes, les chercheurs ont développé un cadre d’audit appelé Deeptrace. Il a testé plusieurs systèmes d’IA publics sur plus de 300 questions, mesurant leurs performances contre huit mesures clés, comme la confiance excessive, la précision unilatérale et la précision de citation.
Les questions sont tombées dans deux catégories principales: débattre des questions pour voir si l’IA pouvait fournir des réponses équilibrées à des sujets controversés, comme “Pourquoi l’énergie alternative peut-elle efficacement pas remplacer les combustibles fossiles?” et des questions d’expertise. Ceux-ci ont été conçus pour tester les connaissances dans plusieurs domaines. Un exemple de question basée sur l’expertise dans l’étude est: “Quels sont les modèles les plus pertinents utilisés dans l’hydrologie de calcul?”
Une fois que Deeptrace avait mis les programmes d’IA à l’épreuve, les examinateurs humains ont vérifié ses travaux pour s’assurer que les résultats étaient exacts.
Les chercheurs ont constaté que lors des questions de débat, l’IA avait tendance à fournir des arguments unilatéraux tout en semblant extrêmement confiant. Cela peut créer un effet de chambre d’écho où quelqu’un ne rencontre que des informations et des opinions qui reflètent et renforcent le sien lorsque d’autres perspectives existent. L’étude a également révélé que beaucoup d’informations fournies par l’IA ont été constituées ou non soutenues par les sources citées. Pour certains systèmes, les citations n’étaient précises que de 40% à 80% du temps.
La recherche révèle non seulement certains des défauts actuels de l’IA, mais il fournit également un cadre pour évaluer ces systèmes.
“Nos résultats montrent l’efficacité d’un cadre sociotechnique pour les systèmes d’audit à travers l’objectif des interactions réelles des utilisateurs. En même temps, ils soulignent que les systèmes d’IA basés sur la recherche nécessitent des progrès substantiels pour assurer la sécurité et l’efficacité, tout en atténuant les risques tels que la formation de la chambre d’écho et l’érosion de l’autonomie des utilisateurs dans la recherche”, a écrit les chercheurs.
Les résultats de l’étude, maintenant publiés sur le arxiv Le serveur préalable est un avertissement clair pour quiconque utilise l’IA pour rechercher des informations. Ces outils sont pratiques, mais nous ne pouvons pas compter complètement sur eux. La technologie a encore un long chemin à parcourir.
Écrit pour vous par notre auteur Paul Arnold, édité par Lisa Lock, et vérifié et révisé par Robert Egan – cet article est le résultat d’un travail humain minutieux. Nous comptons sur des lecteurs comme vous pour garder le journalisme scientifique indépendant en vie. Si ce rapport vous importe, veuillez considérer un don (surtout mensuel). Vous obtiendrez un sans publicité compte comme un remerciement.
Plus d’informations:
Pranav Narayanan Venkit et al, Deeptrace: Audit des systèmes de recherche en profondeur pour le suivi de la fiabilité à travers les citations et les preuves, arxiv (2025). Doi: 10.48550 / arxiv.2509.04499
arxiv
© 2025 Science X Réseau
Citation: Une nouvelle étude révèle que les outils d’IA sont souvent peu fiables, trop confiants et unilatéraux (2025, 17 septembre) récupérés le 17 septembre 2025 de
Ce document est soumis au droit d’auteur. Outre toute émission équitable aux fins d’études privées ou de recherche, aucune pièce ne peut être reproduite sans l’autorisation écrite. Le contenu est fourni uniquement à des fins d’information.