Des chercheurs développent une nouvelle technique de formation visant à rendre les systèmes d’IA moins biaisés socialement
Un doctorant de l’Oregon State University et des chercheurs d’Adobe ont créé une nouvelle technique de formation rentable pour les systèmes d’intelligence artificielle, qui vise à les rendre moins socialement biaisés.
Eric Slyman de l’OSU College of Engineering et les chercheurs d’Adobe appellent cette nouvelle méthode FairDeDup, abréviation de Fair Deduplication. La déduplication consiste à supprimer les informations redondantes des données utilisées pour former les systèmes d’IA, ce qui réduit les coûts de calcul élevés de la formation.
Les ensembles de données glanés sur Internet contiennent souvent des préjugés présents dans la société, ont indiqué les chercheurs. Lorsque ces préjugés sont codifiés dans des modèles d’IA entraînés, ils peuvent servir à perpétuer des idées et des comportements injustes.
En comprenant comment la déduplication affecte la prévalence des biais, il est possible d’atténuer les effets négatifs, comme un système d’IA qui affiche automatiquement uniquement des photos d’hommes blancs si on lui demande de montrer une photo d’un PDG, d’un médecin, etc., alors que le cas d’utilisation prévu est de montrer représentations diverses des personnes.
“Nous l’avons nommé FairDeDup comme un jeu de mots pour une méthode rentable antérieure, SemDeDup, que nous avons améliorée en intégrant des considérations d’équité”, a déclaré Slyman. “Alors que des travaux antérieurs ont montré que la suppression de ces données redondantes peut permettre une formation précise en IA avec moins de ressources, nous constatons que ce processus peut également exacerber les préjugés sociaux néfastes que l’IA apprend souvent.”
Slyman a présenté l’algorithme FairDeDup la semaine dernière à Seattle lors de la conférence IEEE/CVF sur la vision par ordinateur et la reconnaissance de formes.
FairDeDup fonctionne en réduisant les ensembles de données de légendes d’images collectées sur le Web via un processus appelé élagage. L’élagage fait référence au choix d’un sous-ensemble de données qui est représentatif de l’ensemble de données, et s’il est effectué en tenant compte du contenu, l’élagage permet de prendre des décisions éclairées sur les parties des données qui restent et lesquelles sont supprimées.
“FairDeDup supprime les données redondantes tout en intégrant des dimensions de diversité contrôlables et définies par l’homme pour atténuer les préjugés”, a déclaré Slyman. “Notre approche permet une formation en IA non seulement rentable et précise, mais également plus équitable.”
Outre la profession, la race et le sexe, d’autres préjugés perpétrés pendant la formation peuvent inclure ceux liés à l’âge, à la géographie et à la culture.
“En éliminant les préjugés lors de l’élagage des ensembles de données, nous pouvons créer des systèmes d’IA socialement plus justes”, a déclaré Slyman. “Notre travail n’oblige pas l’IA à suivre notre propre notion d’équité, mais crée plutôt une voie pour inciter l’IA à agir équitablement lorsqu’elle est contextualisée dans certains contextes et bases d’utilisateurs dans lesquels elle est déployée. Nous laissons les gens définir ce qui est juste dans leur environnement. au lieu qu’Internet ou d’autres ensembles de données à grande échelle en décident. »
Stefan Lee, professeur adjoint à l’OSU College of Engineering, ainsi que Scott Cohen et Kushal Kafle d’Adobe ont collaboré avec Slyman.
Plus d’information:
Eric Slyman et al, FairDeDup : Détection et atténuation des disparités d’équité vision-langage dans la déduplication des ensembles de données sémantiques (2024)
Fourni par l’Université d’État de l’Oregon
Citation: Des chercheurs développent une nouvelle technique de formation qui vise à rendre les systèmes d’IA moins biaisés socialement (25 juin 2024) récupéré le 25 juin 2024 sur
Ce document est soumis au droit d’auteur. En dehors de toute utilisation équitable à des fins d’étude ou de recherche privée, aucune partie ne peut être reproduite sans autorisation écrite. Le contenu est fourni seulement pour information.