
Le coronavirus a été créé en laboratoire. Certains aliments peuvent aider à prévenir l’infection. La pandémie a été causée par la technologie 5G. Retenir son souffle permet de détecter le virus. Chaque jour apporte son lot de fausses nouvelles sur les médias sociaux.
Chose certaine, la désinformation nuit au combat des autorités pour endiguer la pandémie et peut même avoir des conséquences mortelles. «En Iran, une vingtaine de personnes sont mortes intoxiquées parce qu’elles avaient lu que l’alcool soigne le coronavirus. On constate beaucoup de désinformation, que ce soit sur les mesures préventives ou sur les avancées de la science. Il y a tellement de choses qui se disent que monsieur et madame Tout-le-monde peuvent facilement être perdus», relate Sehl Mellouli, professeur au Département de systèmes d’information organisationnels de l’Université Laval et directeur du Centre de recherche sur les communautés intelligentes.
Comment se forment les informations fausses, détournées ou inexactes? Et surtout, qu’est-ce qui favorise leur diffusion? Ces questions sont à la base d’une étude à laquelle participent l’équipe du professeur Mellouli et des chercheurs de l’Université de Toronto et de l’Université nationale de Singapour. Ce projet a reçu près de 500 000$ des Instituts de recherche en santé du Canada sur 2 ans. «L’idée est de faire une étude comparative entre le Canada et Singapour pour comprendre comment la désinformation est gérée dans le contexte de la COVID-19. Nous évaluons le comportement des gouvernements sur les médias sociaux, mais aussi la réaction des gens par rapport aux messages émis par les instances officielles. On essaie de voir s’il existe une corrélation entre l’évolution de la pandémie dans le temps, les types de messages envoyés et la réaction des gens», explique Sehl Mellouli.
Les chercheurs passent au peigne fin un flot énorme de publications. D’un côté, celle des institutions gouvernementales, de l’Organisation mondiale de la santé et des autres sources officielles. De l’autre, celles de la population, incluant les différentes communautés linguistiques et culturelles.
Pour réaliser cette tâche titanesque, ils croisent des technologies comme l’apprentissage machine et le traitement du langage naturel. «Ces techniques en intelligence artificielle nous permettent de catégoriser et étudier les données sous différents angles, dont l’angle quantitatif, c’est-à-dire le nombre de publications et d’interactions ainsi que l’évolution des messages dans le temps. Ensuite, on analyse les sentiments relativement à ces messages: les gens expriment-ils de la peur, une préoccupation ou transmettent-ils des émotions positives par rapport à l’information?», exemplifie Sehl Mellouli.
Son équipe s’intéresse aussi aux effets des commentaires discriminatoires depuis le début de la crise. «En plus des réactions des gens sur les médias sociaux, on étudie l’impact de ce qui se passe sur certaines tranches de la population, par exemple la communauté chinoise de Toronto. Notre but est d’informer les décideurs et les instances gouvernementales du comportement des gens afin qu’ils soient en mesure de combattre la désinformation et la stigmatisation qui se produisent relativement à cette maladie», conclut le professeur.

Sehl Mellouli est professeur au Département de systèmes d’information organisationnels de l’Université Laval et directeur du Centre de recherche sur les communautés intelligentes.