Le consommateur d’assurance paie une prime pour couvrir un risque.

Il doit avoir confiance qu’il sera indemnisé si le sinistre survient. Les produits offerts doivent donc être clairs, affirme Anne-Marie Hubert, associée et directrice de l’est du Canada chez EY. « Le jour où l’assureur n’arrive pas à expliquer la teneur des produits vendus, la confiance est brisée », a-t-elle aussi mentionné lors d’un panel tenu à la Journée de l’assurance de dommages 2020.

C’est ce qu’il s’est passé avec les papiers commerciaux (PCAA), un produit dérivé un peu obscur qui a contribué à provoquer la crise financière de 2008. Dans une économie numérique, la confiance est une réelle nécessité, insiste-t-elle. En conséquence, la décision d’indemnisation doit être limpide. Le client doit comprendre à l’avance les facteurs importants qui déterminent la prime et le montant de la franchise.

« Au Canada tout comme en France, on ne pourra plus mettre en marché des produits d’assurance qu’on ne comprend pas », souligne Mme Hubert. Une personne devra toujours être disponible pour répondre aux questions des clients, et ces professionnels devront être bien formés.

Selon Anne-Marie Hubert, certains clients peuvent tout de même acheter le produit parce qu’il est moins cher, mais ils sortiront du marché si on refuse leur réclamation, ajoute-t-elle. Le lien de confiance sera brisé et le marché tombera de lui-même, faute de pertinence.

Les biais des algorithmes

Nathalie de Marcellis-Warin, PDG du Centre interuniversitaire de recherche en analyse des organisations (CIRANO) et professeure à l’École Polytechnique de Montréal, souligne que certains algorithmes montrent leurs limites en raison des biais inscrits dès leur conception. Par exemple, l’algorithme d’Amazon offrira plus largement des produits d’usage domestique aux femmes.

Elle note que l’utilisation des premiers systèmes de reconnaissance faciale par les autorités policières a généré beaucoup d’erreurs au début, car la banque d’images utilisée par l’algorithme d’apprentissage n’était pas assez diversifiée sur le plan de l’origine ethnique. De la même manière, l’algorithme utilisé par le service des libérations conditionnelles aux États-Unis a été dénoncé parce qu’il comportait un biais important selon l’origine ethnique des demandeurs, en défavorisant les Afro-Américains.

Au fur et à mesure qu’on alimente les algorithmes avec de nouvelles données, ajoute Mme de Marcellis-Warin, il est important de valider l’absence de biais inconscients qui contribuent à fausser les résultats fournis par l’algorithme, parfois même en les amplifiant.

Anne-Marie Hubert cite en exemple les auditions des orchestres symphoniques qui sont désormais tenues avec un rideau. Avant les rideaux, les femmes n’étaient à peu près jamais retenues. Avec les rideaux, la moitié des postes sont alloués à des femmes, précise-t-elle.

Or, le même biais existe dans le secteur des technologies de l’information et des communications, où l’on compte moins de femmes. Dans les cours où les étudiants évaluent le travail de leurs collègues, les notes accordées aux étudiantes sont moins bonnes quand le prénom est clairement féminin. « Si on enlève le prénom, les notes remontent », ajoute Anne-Marie Hubert.

Politique claire

Chez EY, on compte quelque 200 000 employés, reprend Anne-Marie Hubert, et la moyenne d’âge est de 28 ans. Les jeunes employés développent des algorithmes tout le temps, car ils ont appris à coder à l’école. « Nous sommes dans la business de l’intégrité de l’information chez EY. Nous devons surveiller leur travail. Rapidement, en gestion des risques, un responsable qui relève directement du directeur des opérations a été chargé de la surveillance des algorithmes », dit-elle.

Pour évaluer la pertinence des algorithmes, il a fallu les compter. Chez EY, on en a trouvé 6 000. Leur maintien exige une forte capacité de calcul et il faut évaluer leur performance, indique Anne-Marie-Hubert. Par exemple, les algorithmes utilisés pour la production des déclarations fiscales doivent être mis à jour chaque fois que le législateur modifie la loi sur l’impôt et le revenu.

Le groupe doit se référer à une politique claire en matière d’IA. On se pose plus de questions sur l’utilisation des données et le consentement donné, note Mme Hubert. Selon elle, la personne responsable de la gouvernance de l’IA doit relever de la haute direction.

Mme Hubert souligne la nécessité d’instaurer des mécanismes de participation du public. Pour l’assurance automobile, Desjardins a pu développer Ajusto sans trop de problèmes, car les clients aimaient l’idée de payer moins cher en fonction de leurs habitudes de conduite. En assurance de personnes, l’utilisation des données de santé est moins bien perçue.

Nathalie de Marcellis-Warin constate qu’à Polytechnique, tous les étudiants masquent la caméra de leur ordinateur. « Ils font plus attention à la façon dont ils transmettent leurs données. Mais en même temps, s’ils voient la valeur ajoutée du service qu’on leur offre, ils sont partants », dit-elle.