
Les recommandations de vidéos YouTube conduisent à davantage de contenus extrémistes pour les utilisateurs de droite, suggèrent les chercheurs
Pourcentages de recommandations vidéo problématiques sur (A) toutes les recommandations et (B) sur toutes les marionnettes chaussettes. La figure de gauche montre le pourcentage de recommandations problématiques sur toutes les recommandations à chaque profondeur. La figure de droite montre le pourcentage cumulé de marionnettes chaussettes qui ont rencontré une ou plusieurs recommandations problématiques jusqu'à cette profondeur. Crédit: Actes de l'Académie nationale des sciences (2023). DOI : 10.1073/pnas.2213020120
YouTube a tendance à recommander des vidéos similaires à celles que les gens ont déjà regardées. De nouvelles recherches ont révélé que ces recommandations peuvent conduire les utilisateurs dans un terrier de contenu politique extrémiste.
Une équipe de recherche multidisciplinaire en communication et en informatique de l'Université de Californie à Davis a effectué un audit systématique des recommandations vidéo de YouTube en 2021 et 2022. Ils ont testé comment la tendance idéologique d'une personne pourrait affecter les vidéos que les algorithmes de YouTube lui recommandent. Pour les utilisateurs de droite, les recommandations vidéo sont plus susceptibles de provenir de chaînes partageant l’extrémisme politique, les théories du complot et d’autres contenus problématiques. Les recommandations destinées aux utilisateurs de gauche sur YouTube étaient nettement moins nombreuses, selon les chercheurs.
“L'algorithme de YouTube ne protège pas les gens des contenus de tous bords politiques”, a déclaré Magdalena Wojcieszak, professeur de communication à la Faculté des lettres et des sciences et auteur correspondant de l'étude. “Cependant, il recommande des vidéos qui correspondent principalement à l'idéologie d'un utilisateur, et pour les utilisateurs de droite, ces vidéos proviennent souvent de chaînes qui promeuvent l'extrémisme, les théories du complot et d'autres types de contenus problématiques.”
L'étude intitulée « Audit du système de recommandation de YouTube pour des recommandations idéologiquement adaptées, extrêmes et problématiques » a été publiée ce mois-ci dans le Actes de l'Académie nationale des sciences.
YouTube est la plateforme de partage de vidéos la plus populaire, utilisée par 81 % de la population américaine et avec une base d'utilisateurs en constante augmentation. Plus de 70 % des contenus regardés sur YouTube sont recommandés par son algorithme.
Marionnettes chaussettes et le terrier du lapin recommandé
L'équipe de recherche a créé 100 000 « marionnettes chaussettes » sur YouTube pour tester les recommandations de la plateforme. Une « marionnette chaussette » est un compte automatisé qui imite une personne réelle utilisant la plateforme. Tout comme les vrais utilisateurs de YouTube, les marionnettes chaussettes de cette étude ont regardé des vidéos et rassemblé les recommandations vidéo de YouTube.
Au total, ces marionnettes-chaussettes ont regardé près de 10 millions de vidéos YouTube provenant de 120 073 chaînes qui reflétaient des catégories idéologiques allant de l’extrême gauche à l’extrême droite. Pour identifier l’orientation politique d’une chaîne YouTube, l’équipe a croisé les comptes Twitter de personnalités politiques suivies par chaque chaîne.
Chacun des comptes de marionnettes chaussettes de l’équipe de recherche a regardé 100 vidéos échantillonnées au hasard de son idéologie assignée pendant 30 secondes chacune. Après avoir regardé les vidéos, les recommandations de la page d'accueil de la marionnette chaussette ont été collectées.
Les recommandations « suivantes » d'une vidéo sélectionnée au hasard ont également été collectées, et elles montraient quelles vidéos un utilisateur réel serait susceptible de regarder en suivant passivement les recommandations vidéo.
Les contenus extrémistes se renforcent eux-mêmes
Dans cette étude, l’équipe de recherche a défini les chaînes problématiques comme celles qui partageaient des vidéos promouvant des idées extrémistes, telles que le nationalisme blanc, l’alt-right, QAnon et d’autres théories du complot. Plus de 36 % de tous les utilisateurs de marionnettes à chaussettes participant à l'expérience ont reçu des recommandations vidéo de chaînes problématiques. Pour les utilisateurs centristes et de gauche, ce chiffre était de 32 %. Pour les comptes les plus à droite, ce chiffre était de 40 %.
Selon les chercheurs, suivre les vidéos recommandées peut avoir un impact important sur ce que les gens voient sur YouTube.
“Sans nécessiter aucune contribution supplémentaire de la part des utilisateurs de la plateforme, les recommandations de YouTube peuvent, à elles seules, activer un cycle d'exposition à des vidéos de plus en plus problématiques”, a déclaré Muhammad Haroon, doctorant en informatique à la Faculté d'ingénierie et auteur correspondant de l’étude.
“Il est important que nous identifiions les facteurs spécifiques qui augmentent la probabilité que les utilisateurs soient confrontés à des contenus extrêmes ou problématiques sur des plateformes comme YouTube”, a déclaré Wojcieszak. “Compte tenu du climat politique actuel aux États-Unis, nous avons besoin d'une plus grande transparence dans ces systèmes de recommandations sociales qui peuvent conduire à des bulles filtrantes et à des terriers de radicalisation.”
Plus d'information:
Muhammad Haroon et al, Audit du système de recommandation de YouTube pour les recommandations idéologiquement sympathiques, extrêmes et problématiques, Actes de l'Académie nationale des sciences (2023). DOI : 10.1073/pnas.2213020120
Citation: Les recommandations de vidéos YouTube conduisent à davantage de contenus extrémistes pour les utilisateurs de droite, suggèrent les chercheurs (14 décembre 2023) récupéré le 14 décembre 2023 sur
Ce document est soumis au droit d'auteur. En dehors de toute utilisation équitable à des fins d'étude ou de recherche privée, aucune partie ne peut être reproduite sans autorisation écrite. Le contenu est fourni seulement pour information.