Les chercheurs soulignent les promesses et les défis de la compréhension de l’IA pour la découverte biologique
L’apprentissage automatique est un outil puissant en biologie computationnelle, qui permet d’analyser une large gamme de données biomédicales telles que les séquences génomiques et l’imagerie biologique. Mais lorsque les chercheurs utilisent l’apprentissage automatique en biologie computationnelle, la compréhension du comportement du modèle reste cruciale pour découvrir les mécanismes biologiques sous-jacents à la santé et à la maladie.
Dans un article récent de Méthodes de la natureDes chercheurs de l’École d’informatique de l’Université Carnegie Mellon proposent des lignes directrices qui décrivent les pièges et les opportunités liés à l’utilisation de méthodes d’apprentissage automatique interprétables pour résoudre les problèmes de biologie computationnelle. L’article de Perspectives, « Applying Interpretable Machine Learning in Computational Biology—Pitfalls, Recommendations and Opportunities for New Developments », est présenté dans le numéro spécial d’août de la revue sur l’IA.
« L’apprentissage automatique interprétable a suscité un enthousiasme considérable à mesure que les outils d’apprentissage automatique et d’intelligence artificielle sont appliqués à des problèmes de plus en plus importants », a déclaré Ameet Talwalkar, professeur associé au département d’apprentissage automatique (MLD) de la CMU.
« À mesure que ces modèles gagnent en complexité, de grandes promesses se présentent non seulement dans le développement de modèles hautement prédictifs, mais aussi dans la création d’outils qui aident les utilisateurs finaux à comprendre comment et pourquoi ces modèles font certaines prédictions. Cependant, il est crucial de reconnaître que l’apprentissage automatique interprétable n’a pas encore fourni de solutions clés en main à ce problème d’interprétabilité. »
L’article est le fruit d’une collaboration entre les doctorantes Valerie Chen du MLD et Muyu (Wendy) Yang du département de biologie computationnelle Ray et Stephanie Lane. Les travaux antérieurs de Chen critiquant le manque de base de la communauté de l’apprentissage automatique interprétable dans les cas d’utilisation en aval ont inspiré l’article, et l’idée a été développée à travers des discussions avec Yang et Jian Ma, professeur de biologie computationnelle Ray et Stephanie Lane.
« Notre collaboration a commencé par une étude approfondie des articles de biologie computationnelle afin d’étudier l’application de méthodes d’apprentissage automatique interprétables », a déclaré Yang. « Nous avons remarqué que de nombreuses applications utilisaient ces méthodes de manière quelque peu ad hoc. Notre objectif avec cet article était de fournir des lignes directrices pour une utilisation plus robuste et plus cohérente des méthodes d’apprentissage automatique interprétables en biologie computationnelle. »
L’un des principaux pièges abordés dans l’article est le recours à une seule méthode d’apprentissage automatique interprétable. Les chercheurs recommandent plutôt d’utiliser plusieurs méthodes d’apprentissage automatique interprétables avec divers ensembles d’hyperparamètres et de comparer leurs résultats pour obtenir une compréhension plus complète du comportement du modèle et de ses interprétations sous-jacentes.
« Bien que certains modèles d’apprentissage automatique semblent fonctionner étonnamment bien, nous ne comprenons souvent pas entièrement pourquoi », a déclaré Ma. « Dans des domaines scientifiques comme la biomédecine, comprendre pourquoi les modèles fonctionnent est essentiel pour découvrir les mécanismes biologiques fondamentaux. »
L’article met également en garde contre le fait de sélectionner les résultats de manière sélective lors de l’évaluation des méthodes d’apprentissage automatique interprétables, car cela peut conduire à des interprétations incomplètes ou biaisées des résultats scientifiques.
Chen a souligné que les lignes directrices pourraient avoir des implications plus larges pour un public plus large de chercheurs intéressés par l’application de méthodes d’apprentissage automatique interprétables à leur travail.
« Nous espérons que les chercheurs en apprentissage automatique qui développent de nouvelles méthodes et de nouveaux outils d’apprentissage automatique interprétables, en particulier ceux qui travaillent sur l’explication de grands modèles linguistiques, prendront soigneusement en compte les aspects centrés sur l’humain de l’apprentissage automatique interprétable », a déclaré Chen. « Cela implique de comprendre qui est leur utilisateur cible et comment la méthode sera utilisée et évaluée. »
Bien que la compréhension du comportement des modèles reste d’une importance cruciale pour la découverte scientifique et un problème d’apprentissage automatique fondamentalement non résolu, les auteurs espèrent que ces défis stimuleront de nouvelles collaborations interdisciplinaires pour faciliter une utilisation plus large de l’IA pour un impact scientifique.
Plus d’informations :
Chen, V. et al. Application de l’apprentissage automatique interprétable en biologie computationnelle — Pièges, recommandations et opportunités pour de nouveaux développements, Méthodes de la nature (2024). DOI : 10.1038/s41592-024-02359-7, www.nature.com/articles/s41592-024-02359-7
Fourni par l’Université Carnegie Mellon
Citation: Les chercheurs décrivent les promesses et les défis de la compréhension de l’IA pour la découverte biologique (2024, 9 août) récupéré le 9 août 2024 à partir de
Ce document est soumis au droit d’auteur. En dehors de toute utilisation équitable à des fins d’étude ou de recherche privée, aucune partie ne peut être reproduite sans autorisation écrite. Le contenu est fourni à titre d’information uniquement.