L’assurance est basée sur la mutualisation des risques. La segmentation accrue du risque offerte par les outils de l’intelligence artificielle peut ébranler ce principe si l’on pousse l’exercice trop loin.
Anne-Marie Poitras, PDG de la Chambre de l’assurance de dommages, constate qu’en assurance de dommages des entreprises, cette segmentation accrue incite déjà certains assureurs « à ne couvrir que les plus beaux risques et à délaisser les marchés moins rentables ». Elle a affirmé le tout alors qu’elle animait un panel sur l’usage de l’intelligence en assurance à la Journée de l’assurance de dommages 2020.
L’enjeu de la trop grande segmentation du risque est au cœur des discussions en assurance, reconnait Nathalie de Marcellis-Warin, PDG du Centre interuniversitaire de recherche en analyse des organisations (CIRANO) et professeure à l’École Polytechnique de Montréal. Si l’assureur en vient à connaitre trop parfaitement le profil de risque de chacun des assurés, cette individualisation équivaut presque à éliminer le caractère aléatoire des sinistres.
Or, ce ne sont pas tous les risques qui découlent du comportement de l’assuré. Le principe de la solidarité du groupe doit être maintenu. Selon elle, à trop segmenter le risque, on pourrait en venir à réduire le nombre d’assurés et la taille du marché dans certains segments.
« Cela ne rend service à personne, car le risque qui n’est pas associé au comportement n’est alors plus couvert », précise Mme de Marcellis-Warin. Certes, le fumeur a plus de chances d’être frappé par un cancer du poumon, mais le non-fumeur aussi peut être frappé de la même manière.
Des outils pour la couverture
À l’inverse, l’intelligence artificielle permet désormais d’assurer des gens frappés de maladies chroniques, alors qu’ils en étaient systématiquement exclus auparavant, constate Mme de Marcellis-Warin. Les objets connectés aident à détecter les épisodes qui peuvent entrainer un gros problème de santé, par exemple une mauvaise glycémie, une crise d’épilepsie ou une arythmie cardiaque. Ainsi, ces gens peuvent mener normalement leurs activités tout en profitant de la mutualisation du risque associé à leur santé.
La mutualisation doit couvrir les sinistres des gens malchanceux, poursuit-elle. La prévention peut servir à sensibiliser les gens qui, par exemple, négligent de déneiger leur toiture. Le client prudent qui a déneigé sa toiture doit être couvert s’il est victime d’une malchance. Selon Mme de Marcellis-Warin, l’assureur a intérêt à limiter le nombre de sinistres s’il veut maintenir une prime acceptable, sinon personne n’a les moyens de s’assurer.
Sept principes
La Déclaration de Montréal sur l’IA est considérée par des chercheurs de Harvard comme étant la meilleure parmi les 32 déclarations de principes en matière de respect des droits de la personne, souligne Anne-Marie Hubert, associée et directrice de l’est du Canada chez EY. En assurance, l’utilisation de l’IA responsable est guidée par les sept principes inscrits dans la Déclaration de Montréal : bien-être, solidarité, responsabilité, équité, transparence et justification, autonomie, vie privée.
Nathalie de Marcellis-Warin rappelle que l’expertise du Québec en IA est reconnue partout, notamment par les travaux du professeur Yoshua Bengio, lauréat du prix Turing, et des nombreux chercheurs qu’il a contribué à former. Dès le moment où les premiers outils de l’intelligence artificielle ont été développés, les chercheurs québécois ont sondé des éthiciens, des juristes, etc.
Les efforts pour maintenir la communauté en mode ouvert et favoriser le partage des algorithmes sont valables, mais l’on craint l’utilisation malveillante des nouveaux outils, ajoute-t-elle en citant l’exemple des drones utilisés à des fins militaires. À cet égard, Mme de Marcellis-Warin cite la contribution de son collègue Marc-Antoine Dilhac, professeur adjoint en éthique et philosophie politique de l’Université de Montréal, à la rédaction de la Déclaration de Montréal, qui a nécessité une année de travaux.
Mme de Marcellis-Warin enseigne les mathématiques à Polytechnique où les programmeurs apprennent à coder des algorithmes d’apprentissage. « Je m’assure auprès de mes collègues que les étudiants apprennent ces principes inscrits dans la déclaration », dit-elle.
Dans le cas du principe de transparence, l’assureur doit être en mesure d’expliquer son refus de couverture. Comme on ne peut discuter avec un algorithme, les clients doivent recevoir une explication transparente des motifs expliquant le refus de la réclamation. Les codeurs peuvent ajuster la puissance de calcul de l’algorithme afin de garder un espace pour la justification de la décision. « On accepte qu’un humain se trompe, mais pas l’algorithme? », se demande-t-elle.
On peut s’assurer en ligne en répondant à trois questions, mais le client potentiel a droit à une explication si la proposition est refusée. Les cas plus compliqués exigeront toujours l’intervention d’une personne, ajoute-t-elle, et ce professionnel doit pouvoir expliquer les décisions basées sur le calcul de l’algorithme.