Les immenses retombées que les outils de l'intelligence artificielle (IA) pourraient avoir dans toutes les sphères d'activités commencent à peine à poindre dans l'espace public, mais les problèmes qu'ils risquent d'engendrer font déjà les manchettes. Le tourbillon de réactions déclenchées par le lancement de ChatGPT en est l'exemple parfait. Pour surmonter ces problèmes, un vaste regroupement de chercheurs propose un changement de paradigme en vue de favoriser le développement d'une intelligence artificielle qui serait à la fois «robuste, raisonnante et responsable».
C'est à cette tâche que s'attaqueront les partenaires du projet Intelligence artificielle robuste, raisonnante et responsable (IAR3) grâce à une subvention de 124,5 M$ accordée par le Fonds d'excellence en recherche Apogée Canada. Ce projet sera réalisé par des équipes l'Université de Montréal, de l'Université Laval, de Polytechnique Montréal, de HEC Montréal et de l'Université McGill. Yoshua Bengio, de l'Institut de valorisation des données (IVADO) de l'Université de Montréal, en assure la direction scientifique.
Le projet IAR3 mise sur la collaboration entre spécialistes des sciences humaines, des sciences sociales, des sciences de la santé, des neurosciences, du génie et de l'informatique pour améliorer les outils de l'IA et pour en étudier les répercussions sociales et éthiques.
Des chercheurs de l'Institut intelligence et données (IID) de l'Université Laval ont participé aux réflexions entourant la préparation du projet IAR3. «L'expertise des membres de l'IID a été mise à contribution pour développer les volets “robuste“ et “raisonnant“ du projet», souligne le directeur de l'institut, Christian Gagné, professeur au Département de génie électrique et de génie informatique.
Des membres de l'IID travaillent au développement de systèmes d'IA plus robustes, capables de fonctionner en conditions réelles, avec des données qui n'ont pas été vues pendant la phase d'entraînement en laboratoire. D'autres membres, qui s'intéressent au volet «raisonnant», cherchent à comprendre ce qui se passe dans la boîte noire d'un système d'IA, par quels mécanismes il parvient à apprendre. «Si on disposait de ces informations, on pourrait les utiliser pour concevoir de meilleurs systèmes d'IA et pour les certifier avant de les implanter dans le monde réel», précise le professeur Gagné.
L'expertise de l'Observatoire international sur les impacts sociétaux de l'intelligence artificielle et du numérique de l'Université Laval a été mise à contribution dans le développement du volet “responsable” et des aspects éthiques de la demande de subvention, souligne la directrice de l'observatoire, Lyse Langlois, professeure au Département des relations industrielles.
«Les avancées des modèles de langage comme celui de ChatGPT ont mis en évidence l'importance de prendre en considération les répercussions sociales et éthiques de ces modèles, rappelle la professeure Langlois. Cet outil a été développé en laboratoire et il a été lancé dans le monde réel sans qu'on ait pris le temps d'en évaluer et d'en atténuer les répercussions. L'innovation responsable requiert une réflexion éthique sur les enjeux sociaux de l'IA, et ce, en amont de la conception et, idéalement, en interdisciplinarité. Elle appelle à une forme de gouvernance qui tient compte de l'opinion de toutes les parties prenantes incluant la société civile.»
Une première rencontre réunissant tous les chercheurs qui pourraient contribuer à la réalisation du projet IAR3 aura lieu le 29 mai à Montréal. Par la suite, des appels à projets seront lancés parmi les universités partenaires afin de favoriser la formation d'équipes de recherche qui réaliseront des projets s'inscrivant dans les priorités d'IAR3.
Des chercheurs de l'Université Laval font partie d'un autre regroupement qui a décroché une subvention au dernier concours d'Apogée Canada. Leur projet porte sur les changements en cours dans la captation du carbone par les océans.