À l'ère où les données orientent de plus en plus la prise de décisions, les conséquences éthiques des modèles d'intelligence artificielle (IA) sont minutieusement examinées. Et le milieu de l'assurance n'est pas en reste.
Les compagnies d'assurance utilisent des algorithmes de plus en plus sophistiqués pour estimer le risque représenté par leur clientèle, et cela, à partir d'une masse croissante d'informations. «Par exemple, au Québec, en 2021, il y a 27 888 blessures causées par des accidents de la route qui ont été recensées par la Société de l'assurance automobile du Québec. Dans chacun de ces cas-là, chaque personne au volant d'un véhicule peut représenter un risque différent pour les assureurs», expose Olivier Côté, étudiant au doctorat en actuariat à l'Université Laval.
Et qui dit risque différent dit polices différentes et coûts différents. Tout ça, avec un risque de biais et de discrimination en fonction des données utilisées, du poids de chaque variable, de l'entraînement des modèles, voire des modèles eux-mêmes. Olivier Côté travaille justement à mitiger ces biais discriminatoires. Les premières conclusions de son projet de thèse ont été publiées sur le site Social Science Research Network, en collaboration avec la professeure Marie-Pier Côté, de l'École d'actuariat de l'Université Laval, et le professeur Arthur Charpentier, au Département de mathématiques de l'Université du Québec à Montréal, et présentées le 16 mai à l'occasion de la Journée sur l'équité et la discrimination en assurance.
«Étant donné la dépendance de l'industrie de l'assurance aux données personnelles, et le rôle majeur que cette industrie occupe dans la société, les compagnies doivent aujourd'hui être particulièrement soucieuses de l'équité de leur pratique entre les assurés», explique l'étudiant, qui travaille sous la supervision de la professeure Côté et du professeur Charpentier.
Comprendre la discrimination indirecte
Il existe de nombreuses juridictions qui ont adopté des lois ou des directives qui stipulent que les assureurs ne doivent pas discriminer sur certaines caractéristiques des titulaires de polices. Malgré tout, le potentiel de discrimination n'est pas complètement éliminé.
«L'IA va identifier des corrélations entre diverses données et, qu'on considère ou non certaines variables, celles-ci peuvent potentiellement teinter la relation que des données entretiennent entre elles et ainsi perpétuer ou amplifier des biais latents», poursuit l'étudiant.
Un exemple? Sans avoir accès au genre des individus pour établir des primes d'assurance, une IA pourrait tout de même imposer des tarifs différents aux gens qui travaillent en soins infirmiers – un métier majoritairement exercé par des femmes – comparativement à d'autres travaillant en mécanique automobile – métier majoritairement pratiqué par des hommes.
«Aux États-Unis, il existe aussi des corrélations entre l'origine ethnique et le lieu de résidence des personnes assurées, une situation où une IA pourrait être amenée à discriminer indirectement en lien avec l'adresse physique de la clientèle», indique Olivier Côté. Plus les données sont complexes et sensibles, plus les informations individuelles sont abondantes, plus les algorithmes utilisés deviennent flexibles et plus le risque de discrimination indirecte est présent, dit-il.
Adapter les prévisions faites par l'IA
Pour remédier à cette situation complexe, le doctorant a fait le pari d'adapter les prévisions faites par les algorithmes d'IA en s'inspirant de «l'inférence causale». L'idée est d'aller au-delà des simples corrélations et de s'intéresser plutôt aux relations de cause à effet.
«L'intelligence artificielle est un détecteur de corrélation, mais l'existence d'une corrélation n'implique pas nécessairement un lien direct de cause à effet, explique l'étudiant. On pourrait imaginer qu'il y a corrélation entre la vente de crème glacée et des accidents en motocyclette, mais ça ne veut pas dire que ce sont les ventes de crème glacée qui causent les accidents. On est simplement face à des événements saisonniers.»
À partir d'un outil appelé un graphe acyclique dirigé, il a exploré les liens de causalité entre diverses variables pour affiner la compréhension des méthodes de prévision utilisées par les actuaires, qui visent à éviter les corrélations. «Par exemple, une analyse de la causalité pourrait démontrer que l'âge est un facteur déterminant dans le risque d'accident automobile, tandis qu'une corrélation potentielle entre l'origine ethnique et les accidents serait, elle, écartée des variables prises en considération en raison de l'absence de causalité», précise Olivier Côté.
Selon lui, «si on est en mesure d'augmenter le degré d'équité, on évitera que ces algorithmes mettent un fardeau injustifié sur une partie de la population.»
Prochaine étape: la mise à l'épreuve
L'étudiant mettra à l'épreuve ses hypothèses en faisant le test à partir de données réelles obtenues grâce à une collaboration de recherche avec un important assureur automobile au Canada.
Il souhaite mettre au point une méthodologie accessible, efficace et clé en main à l'attention de juristes et de spécialistes de l'assurance qui souhaiteraient critiquer ou adapter des algorithmes susceptibles d'être injustement discriminatoires. «Le domaine de l'assurance n'est qu'une étude de cas: les avancées découlant du projet pourraient aider à augmenter le caractère éthique de n'importe quel système d'IA qui influence, de près ou de loin, les membres de nos sociétés.»