Les laboratoires gérés par l'IA sont arrivés, comme celui-ci à Suzhou, en Chine.Crédit : Qilai Shen/Bloomberg/Getty

Read in English

Les scientifiques de divers convictions et genre emploient l'intelligence artificielle (IA), qu'il s'agisse de développer des laboratoires "autonomes", dans lesquels robots et algorithmes collaborent pour concevoir et mener des expériences, ou de remplacer les participants humains dans les expériences de sciences sociales par des robots1 .

De nombreux désavantages des systèmes d'IA ont été discutés. Par exemple, l'IA générative telle que ‘ChatGPT’ a tendance de fabriquer des choses (mentir) ou à "halluciner", et le fonctionnement des systèmes d'apprentissage automatique est opaque.

A la page 49 de Perspective2 , des chercheurs en sciences sociales identifient un autre risque des systèmes d'IA : c’est que les chercheurs considèrent ces outils comme plus objectif, plus efficaces et plus doués à comprendre les concepts complexes que les êtres humains. Selon les auteurs, les chercheurs risquent ainsi de négliger le dommage a l’entreprise scientifique comme, par example, la possibilité de limiter l'objet des enquêtes scientifiques ou de tromper les utilisateurs en croyant qu’ils ont un meilleur compréhension d’un concept qu’ils ont en vérité.

Les scientifiques qui envisagent d'utiliser l'IA "doivent évaluer ces risques maintenant, alors que les applications de l'IA sont encore naissantes, car il sera beaucoup plus difficile d'y faire face si les outils d'IA s'intègrent profondément dans le processus de recherche", écrivent les coauteurs Lisa Messeri, anthropologue à l'université de Yale à New Haven (Connecticut), et Molly Crockett, spécialiste des sciences cognitives à l'université de Princeton, New Jersey aux États-Unis.

Cet article, qui a fait l'objet d'une évaluation par des pairs, constitue un avertissement opportun et inquiétant sur ce qui pourrait être perdu si les scientifiques adoptaient des systèmes d'IA sans bien réfléchir aux risques . Les chercheurs et ceux qui définissent l'orientation et la portée de la recherche, notamment les bailleurs de fonds et les rédacteurs en chef des revues, doivent également se rendre compte de ces risques. Il existe des moyens d'atténuer les risques. Mais pour cela, il faut que l'ensemble de la communauté scientifique se met en garde quand il s’agit d’utilisation des systèmes d'IA Messeri et Crockett ont examiné une centaine de publications (des articles évalués par des pairs, des prépublications, des actes de conférences et des livres), au cours des cinq dernières années. À partir de ces documents, ils ont identifié les différentes façons dont les scientifiques exprime l’idée que l’IA renforce les capacités humaines.

Dans l'une de ces "visions", qu'ils appellent ‘AI as Oracle’, les outils d'IA lisent et digèrent infatigablement les articles scientifiques et peuvent donc étudier la littérature scientifique de manière plus complète que les humains. Dans une autre vision, appelée ‘AI as Arbiter’, les systèmes évaluent les résultats scientifiques de manière plus objective que les individus , car ils sont moins susceptibles de sélectionner la littérature qui soutient une hypothèse préférée ou qui est favorisée par leurs collègues. . Dans une troisième vision, ‘l'IA’ as Quant’, les outils d'IA dépassent les limites des capacités intellectuelles des êtres humain dans l'analyse d'ensembles de données vastes et complexes. Dans la quatrième vision, ‘l'IA as substitute’, les outils d'IA simulent des données qui sont trop difficiles ou complexes à obtenir.

S'appuyant sur leurs connaissances en anthropologie et en sciences cognitives, Messeri et Crockett prévoient ainsi les risques qui découlent de ces visions. L'un d'eux est l'illusion de la profondeur explicative3 dans laquelle les personnes qui s'appuient sur les connaissances d'une autre personne - ou dans le cas présent d'une machine - ont tendance à confondre ses connaissances avec les leurs et à penser que leur compréhension est plus profonde qu'elle ne l'est en réalité.Un autre risque est que la recherche soit orientée vers l'étude des types de choses que les systèmes d'IA peuvent tester - les chercheurs appellent cela l'illusion de l'étendue de l'exploration. Par exemple, en sciences sociales, la vision de l'IA en tant que substitut pourrait encourager les expériences portant sur des comportements humains qui peuvent être simulés par une IA - et décourager celles portant sur des comportements qui ne peuvent pas l'être, comme tout ce qui nécessite d'être incarné physiquement.

Il y a aussi l'illusion d'objectivité dans laquelle les chercheurs considèrent que les systèmes d'IA représentent tous les points de vue possibles ou n'ont pas de point de vue, alors qu'en fait, ces outils ne reflètent que les points de vue trouvés dans les données sur lesquelles ils ont été formés et sont connus pour adopter les préjugés trouvés dans ces données. "Nous risquons d'oublier que a certaines questions au sujet des êtres humains n'a pas de response, même à l'aide d'outils d'intelligence artificielle", déclare M. Crockett. L'illusion d'objectivité est particulièrement inquiétante compte tenu des avantages qu'il y a à inclure divers points de vue dans la recherche.

Éviter les pièges

Si vous êtes un scientifique qui envisage d'utiliser l'IA, il existe des moyens d'atténuer les risques. L'une d'entre elles consiste à faire correspondre l'utilisation que vous envisagez à l'une des visions et à déterminer les pièges dans lesquels vous risquez le plus. Une autre approche consiste à choisir délibérément la manière dont vous utilisez l'IA. Il est moins risqué d'utiliser des outils d'IA pour gagner du temps dans un domaine où votre équipe est déjà experte que de les utiliser pour fournir une expertise que vous n'avez pas, explique M. Crockett.

Mais les rédacteurs en chef des revues qui reçoivent des propositions dans lesquelles l'utilisation de systèmes d'IA a été déclarée doivent également prendre en compte les risques posés par ces visions de l'IA, tout comme les bailleurs de fonds qui examinent les demandes de subvention et les administrateurs d'université qui pourraient se trouver en contrainte de utiliser l'IA. Les revues et les bailleurs de fonds doivent également viser à un équilibre entre les recherches qu'ils publient et celles qu'ils financent, et s'assurer que, face à la myriade de possibilités offertes par l'IA, leurs portefeuilles restent larges dans les questions qu'ils posent, les méthodes qu'ils utilisent et les points de vue qu'ils englobent.

Tous les membres de la communauté scientifique doivent considérer l'utilisation de l'IA non pas comme la seule outil pour une tâche particulière, ni comme une panacée, mais plutôt comme un choix comportant des risques et des avantages qui doivent être soigneusement évalués. Depuis des décennies, et bien avant que l'IA ne devienne une réalité pour la plupart des gens, les chercheurs en sciences sociales ont étudié l'IA. Tout le monde - y compris les chercheurs de toutes sortes - doit maintenant les écouter.