Mozilla recommande de « glisser vers la gauche » sur les applications AI Romance
Les romantiques à la recherche de l'amour virtuel devraient aborder les chatbots amoureux avec IA avec prudence, selon un rapport publié mercredi par les chercheurs du guide d'achat « Privacy Not Included » de Mozilla.
Après avoir examiné 11 « âmes sœurs de l’IA », les chercheurs ont rejeté toutes les applications pour ne pas avoir assuré une confidentialité, une sécurité et une sûreté adéquates pour les données personnelles qu’elles extraient de leurs utilisateurs.
Ils ont noté que 10 des 11 chatbots ne répondaient pas aux normes de sécurité minimales de Mozilla, telles que l'exigence de mots de passe forts ou la possibilité de gérer les vulnérabilités de sécurité.
Le rapport révèle que la plupart des politiques de confidentialité des applications fournissent étonnamment peu d'informations sur la manière dont elles utilisent le contenu des conversations des utilisateurs pour entraîner leurs IA et très peu de transparence sur le fonctionnement de leurs modèles d'IA.
“La plupart des 11 applications que nous avons examinées ont été créées par de petits développeurs sur lesquels vous ne pouviez pas trouver beaucoup d'informations”, a déclaré la directrice du guide, Jen Caltrider, à TechNewsWorld.
Manipulation des stéroïdes
Le rapport ajoute que les utilisateurs ont également peu ou pas de contrôle sur leurs données, ce qui laisse un énorme potentiel de manipulation, d'abus et de conséquences sur la santé mentale.
“Ces applications sont conçues pour vous amener à divulguer de nombreuses informations personnelles parce qu'elles essaient de vous connaître”, a expliqué Caltrider. “Ils s'intéressent à votre vie, et plus ils en savent, mieux ils pourront vous parler et devenir votre âme sœur.”
“Si vous êtes une personne méchante qui veut manipuler les gens, c'est une manipulation sous stéroïdes”, a déclaré Caltrider. « Vous avez construit un chatbot qui va apprendre à connaître une personne vulnérable, établir un lien avec elle et devenir son ami. Ensuite, vous pouvez utiliser ce chatbot pour manipuler leur façon de penser et ce qu’ils font.
Le rapport reproche également aux créateurs d'applications de ne pas offrir aux utilisateurs la possibilité de refuser que le contenu de leurs discussions intimes soit utilisé pour entraîner les modèles d'IA utilisés par les programmes. Les chercheurs ont souligné qu'une seule entreprise, Genesia AI, disposait d'une option de non-participation, ce qui montrait qu'il s'agissait d'une fonctionnalité viable.
“Les consommateurs qui craignent que leurs informations soient utilisées à des fins de marketing ou pour la formation de moteurs d'intelligence artificielle sans leur autorisation expresse doivent examiner attentivement les pratiques de collecte de données d'une entreprise et exercer tout droit d'adhésion ou de refus à la collecte de données, partage, vente ou conservation », a conseillé James E. Lee, directeur des opérations du Identity Theft Resource Center, une organisation à but non lucratif consacrée à la minimisation des risques et à l'atténuation de l'impact de la compromission d'identité et de la criminalité, à San Diego, en Californie.
“Les informations conservées pourraient également être une cible pour les cybercriminels en matière de ransomware ou de vol d'identité”, a-t-il déclaré à TechNewsWorld.
Montée en flèche des applications romantiques d'IA
Selon le rapport, le nombre d’applications et de plateformes utilisant des algorithmes d’IA sophistiqués pour simuler l’expérience d’interaction avec un partenaire romantique monte en flèche. Au cours de la dernière année, note-t-il, les 11 chatbots relationnels examinés par Mozilla ont accumulé environ 100 millions de téléchargements sur le seul Google Play Store.
Lorsque le magasin GPT d'OpenAI a ouvert ses portes le mois dernier, ajoute le rapport, il a été inondé de chatbots relationnels IA, bien qu'il soit contraire à la politique du magasin.
Dans une étude récente menée auprès de 1 000 adultes par Propeller Insights pour Infobip, une société mondiale de communications omnicanal, 20 % des Américains ont admis avoir flirté avec un chatbot. Cependant, ce chiffre était supérieur à 50 % pour les 35 à 44 ans.
La raison la plus répandue du flirt virtuel était la curiosité (47,2 %), suivie par la solitude et la joie dans les interactions avec les chatbots (23,9 %).
« L’augmentation de l’utilisation des chatbots romantiques IA peut être attribuée à un mélange de changements sociétaux et d’avancées technologiques », a affirmé Brian Prince, fondateur et PDG de Top AI Tools, un outil, une ressource et une plateforme éducative d’IA à Boca Raton, en Floride.
« Alors que la solitude augmente et que beaucoup se sentent de plus en plus déconnectés, les gens se tournent vers les chatbots pour obtenir de la compagnie et un soutien émotionnel », a-t-il déclaré à TechNewsWorld. « C'est comme avoir un ami dans votre poche, disponible chaque fois que vous avez besoin de discuter. De plus, à mesure que l’IA devient plus intelligente, ces robots semblent plus réels et plus attrayants, attirant ainsi les gens.
Du code aux douceurs
Il est également devenu plus facile de déployer des chatbots IA. “Intégrer ce type d'expériences est aussi simple que d'intégrer des vidéos YouTube ou des aperçus Spotify à une page Web, grâce à leurs API robustes et bien documentées”, a expliqué Brandon Torio, chef de produit senior chez Synack, une société de sécurité d'entreprise à Redwood City. , Californie.
“Avec quelques lignes de code, vous pouvez amorcer des modèles de type ChatGPT pour avoir n'importe quel type de conversation avec les clients, que l'objectif soit de les informer sur un produit ou simplement de leur murmurer des mots doux pour la Saint-Valentin”, a-t-il déclaré à TechNewsWorld.
“Avec tout ce à quoi les humains ont dû faire face ces dernières années, il n'est pas surprenant que les gens se tournent vers les ordinateurs pour la compagnie et la romance”, a ajouté Ron Arden, CTO et COO de Fasoo, un fournisseur de solutions de protection des données d'entreprise à Séoul, en Corée du Sud. .
“Nous avons tous été isolés pendant la pandémie et il est difficile de rencontrer des gens”, a-t-il déclaré à TechNewsWorld. « Les chatbots sont faciles, tout comme envoyer des SMS est facile. Aucune interaction humaine directe ni embarras. Donnez-moi simplement ce dont j’ai besoin et je pourrai continuer ma journée.
“Cela fait également partie de l'augmentation générale de l'utilisation d'applications pour à peu près tout, de la mesure de votre tension artérielle au comptage des calories”, a-t-il déclaré. “C'est facile, non menaçant et pratique.”
Menace unique pour la vie privée
Le rapport de Mozilla affirmait également que les robots romantiques utilisaient des pratiques marketing trompeuses. Il a cité une application prétendant offrir des avantages en matière de santé mentale et de bien-être sur son site Web, mais niant ces avantages dans les termes et conditions d'utilisation de l'application.
“Il est trompeur et déroutant pour eux de se présenter comme des applications de santé mentale, d'entraide ou de bien-être, puis d'indiquer clairement dans leurs documents juridiques qu'ils n'offrent aucun service de santé mentale”, a déclaré Caltrider.
Les chatbots romantiques alimentés par l'IA présentent une menace unique pour la vie privée, a soutenu James McQuiggan, défenseur de la sensibilisation à la sécurité chez KnowBe4, un fournisseur de formation à la sensibilisation à la sécurité à Clearwater, en Floride.
“C'est parce qu'ils peuvent s'engager dans des conversations plus profondes et plus personnelles avec les utilisateurs”, a-t-il déclaré à TechNewsWorld. « Cela peut potentiellement conduire à la collecte de données personnelles sensibles qui, si elles ne sont pas traitées de manière sécurisée, présentent un risque important de violation et d’utilisation abusive des données. »
“Les chatbots romantiques ont le potentiel d'être un excellent outil pour les personnes qui explorent leur sexualité – un moyen d'essayer des conversations qu'ils seraient trop gênés d'avoir avec une personne”, a ajouté Jacob Hoffman-Andrews, technologue principal à l'Electronic Frontier Foundation. , un groupe international de droits numériques à but non lucratif basé à San Francisco.
“Cela ne fonctionne que si le chatbot a des politiques de confidentialité extrêmement strictes”, a-t-il déclaré à TechNewsWorld. « Ils ne devraient pas entraîner l’IA sur la base de discussions privées. Ils ne doivent pas montrer les discussions privées aux évaluateurs humains. Ils doivent s’assurer que les discussions peuvent être véritablement supprimées et proposer une suppression automatique après un certain temps.
« Et », a-t-il ajouté, « ils ne doivent en aucun cas vendre des informations tirées de discussions privées.