Faire appel à des outils de l'intelligence artificielle (IA) pour produire des résumés d'articles scientifiques qu'on souhaite citer dans une étude ou pour écrire une partie d'article scientifique, de rapport ou de demande de subvention, voilà qui serait bien utile à des chercheurs à court de temps qui veulent accroître leur productivité. Mais où tracer la limite entre ce qui est une production humaine et celle d'une machine?
En cette ère où la frontière entre le vrai et le faux s'estompe au point de mettre à mal la crédibilité et l'intégrité des savoirs scientifiques, il est grand temps de réfléchir à la façon d'encadrer l'usage de l'IA afin de profiter de sa puissance tout en évitant les dérives éthiques dans lesquelles elle pourrait nous entraîner.
C'est la raison pour laquelle le comité organisateur de la Semaine de la conduite responsable en recherche a choisi de présenter une table ronde sur la question, animée par la professeure Lyse Langlois de la Faculté des sciences sociales, et d'en faire l'activité phare de la programmation cette année. Près de 200 personnes ont participé à cette rencontre présentée en ligne le 1er mai.
D'entrée de jeu, Nadia Naffi, professeure à la Faculté des sciences de l'éducation de l'Université Laval et spécialiste de l'application éthique, critique, responsable et durable du numérique et de l'intelligence artificielle, a reconnu les mérites des outils de l'IA en recherche.
«L'IA est mon partenaire de recherche, mais ça demeure un outil. Je l'utilise, entre autres, pour libérer les membres de mon équipe de certaines tâches répétitives comme la retranscription d'entrevues, ce qui leur permet de se concentrer sur le véritable travail, les analyses. Certains outils de l'IA sont déjà très impressionnants et ils permettent d'augmenter la performance. Dans le contexte très compétitif de la recherche, les personnes qui ne les maîtrisent pas risquent d'en souffrir, surtout celles qui sont en début ou en fin de carrière. La littératie numérique est un enjeu qui risque de créer des écarts entre les personnes.»
Eve Gaumond, diplômée en droit de l'Université Laval et chercheuse au Centre de recherche en droit public de l'Université de Montréal, croit que la pression de performance à laquelle sont soumis les chercheurs peut conduire certains d'entre eux à emprunter des raccourcis dangereux. On aurait toutefois tort de croire qu'une loi encadrant l'IA suffirait à tout régler.
«Par exemple, on pourrait difficilement légiférer pour interdire les faux contenus parce qu'il existe des lois qui protègent la liberté d'expression et parce que la ligne entre le vrai et le faux est parfois difficile à tracer. Il est préférable de se tourner vers le droit existant pour sanctionner les inconduites. Et la menace de sanction n'est pas forcément la meilleure approche ici. Il vaudrait mieux inculquer les principes de conduite responsable en recherche tout au long du parcours des étudiants et des chercheurs. L'éducation et la sensibilisation peuvent produire plus de résultats que les sanctions», estime-t-elle.
Les opinions sur l'IA dans le monde universitaire comme dans la société civile couvrent un large spectre, constate le diplômé en philosophie de l'Université Laval et professeur à l'Université Saint-Paul, Jonathan Durand Folco. Selon ses observations, il existe quatre grands groupes.
Les techno-optimistes croient à toutes les promesses de l'IA et considèrent que les défis éthiques qu'ils posent pourront être surmontés grâce à des solutions technologiques. Les régulationnistes appuient le développement de l'IA, mais ils estiment qu'il faut des règles pour le baliser. Les technocritiques jugent que le développement de l'IA ne peut être laissé entre les mains d'entreprises privées dont l'objectif premier est le profit, et ils estiment que les utilisateurs de ces outils, notamment les universitaires, doivent se les réapproprier. Enfin, les technopessimistes croient que l'IA nous entraîne dans un gouffre et ils appellent à son bannissement.
«Il est temps de tenir des États généraux sur l'IA dans le monde de l'éducation et de la recherche afin de permettre à toutes ces personnes de s'exprimer et de décider collectivement de la place qu'elle doit occuper», a conclu le professeur Durand Folco.
Pour poursuivre la réflexion, écoutez le balado La science dont vous êtes le héros, qui aborde les enjeux éthiques et sociaux de l'IA en recherche universitaire avec les spécialistes Eve Gaumond et Laure Soulier.