Bien que les poursuites judiciaires au Canada soient probablement bien moins nombreuses qu’aux États-Unis, un nouveau webinaire d’AM Best intitulé Defending Artificial Intelligence Claims offre un aperçu permettant aux observateurs de l’industrie d’évaluer les impacts potentiels découlant de l’adoption croissante de l’intelligence artificielle (IA) dans les secteurs des affaires et de l’assurance. 

Les enjeux juridiques émergents, le rôle de l’IA dans la détection et la prévention de la fraude, les discriminations involontaires et les mesures spécifiques que les assureurs devraient adopter pour se protéger ont fait l’objet de discussions lors du panel animé par l’agence de notation. 

Une présence omniprésente 

L’IA est aujourd’hui omniprésente, ont souligné les experts. Dans le domaine de l’assurance, elle est utilisée dans les réclamations  : certaines compagnies offrent des applications permettant aux assurés de soumettre des photos d’accidents et d’obtenir une estimation, parfois même avant l’arrivée de la police. Les robots de conversation (chatbots) communiquent avec les assurés et les réclamants, et certains clients disposent de systèmes de surveillance (télématiques) dans leurs véhicules.

En souscription, l’IA sert également à alerter et attribuer un score de risque plus élevé aux souscripteurs lorsque des candidats copient-collent des informations ou mettent trop de temps à répondre à des questions de base, comme leur date de naissance. 

« L’IA est activement utilisée dans les réclamations, dans l’assurance et dans les litiges », affirme Maria Abate, actionnaire chez Colodny Fass. « Il est difficile de trouver un équilibre entre faire confiance à l’IA et rester prudent. » 

Décisions erronées 

Un débat persistant porte sur la responsabilité en cas de préjudice ou de décisions erronées causées par un système d’IA. Parmi les exemples cités, les experts notent qu’un algorithme performant sur une population homogène pourrait produire des résultats très différents lorsqu’appliqué à une population plus diversifiée. 

En 2016, par exemple, GEICO a conclu un règlement avec le Département des assurances de Californie. L’enquête alléguait que l’assureur avait discriminé de manière inappropriée en fonction du sexe, du niveau d’éducation et de la profession lors de l’établissement des tarifs, car son algorithme tenait compte du revenu et du code postal des demandeurs. « Un caissier de banque pouvait se voir attribuer un tarif supérieur de 19 % à celui d’un cadre bancaire en raison de son éducation et de son salaire, sans aucun lien avec ses compétences de conduite », explique Mme Abate. 

Biais inhérents 

Un autre exemple remonte à une dizaine d’années, lorsque Amazon a conçu un algorithme pour trier les CV afin de recruter les meilleurs talents. Parce que l’algorithme intégrait des données salariales, les « meilleurs talents » identifiés étaient tous des hommes blancs.

« Cela ne signifie pas nécessairement que ces individus étaient les meilleurs, mais il y avait un biais inhérent dans les données. Comme nous le savons tous, les femmes et les minorités sont souvent moins bien rémunérées pour des emplois similaires », souligne-t-elle. « Ce biais était déjà intégré dans les données. Si nous n’en sommes pas conscients, cela ne fera qu’aggraver les problèmes. » 

Un dernier exemple concerne une affaire impliquant State Farm dans l’Illinois, où il est allégué que les réclamations des propriétaires noirs étaient retardées et signalées à un taux beaucoup plus élevé que celles des propriétaires blancs. « Il n’y a jamais d’intention malveillante, mais il est nécessaire d’examiner ces algorithmes », indique Mme Abate. « C’est le type de risques auxquels les compagnies d’assurance seront confrontées. » 

Sécurité et dégradation des données 

La sécurité et la protection des données, ainsi que la confidentialité, préoccupent également de nombreux assureurs, ajoutent les panélistes. 

Un point intéressant mentionné : la précision des algorithmes d’IA se dégrade avec le temps pour diverses raisons. Cette dégradation peut passer inaperçue jusqu’à ce qu’un événement catastrophique survienne ou qu’un grand nombre de personnes soient touchées. « Ne vous méprenez pas, l’IA est formidable à bien des égards, mais elle peut aussi devenir un problème », avertit Matt Keris, actionnaire chez Marshall Dennehey. « Il faut garder un œil attentif. »