Incontournable pour développer des opportunités d’affaires, l’intelligence artificielle peut également représenter une menace d’un point de vue éthique. Le risque lié aux algorithmes augmente d’autant plus que les entreprises technologiques œuvrant dans le secteur de la finance et de l’assurance pullulent.

C’est ce qui est ressorti du panel sur l’intelligence artificielle responsable organisé à l’occasion du Rendez-vous avec l’Autorité des marchés financiers, le 25 novembre dernier, à Montréal.

Peu de temps avant, dans un article intitulé Algorithmes fous et publié par l’Institut canadien des actuaires (ICA), Saisai Zhang, experte-conseil principale, actuariat, récompense et analytique, chez Deloitte, exposait l’importance que prend l’intelligence artificielle dans la société et l’augmentation du risque associé. 

Des algorithmes discriminatoires

De plus en plus, les algorithmes sont « des agents intelligents qui informent, voire prennent des décisions d’une façon semblable au cerveau humain », constate Mme Zhang. De ces décisions découlent de la publicité ciblée ou des offres de produit.

Or, les algorithmes sont comme les humains, ils ne prennent pas toujours les bonnes décisions, ce qui peut les mener à faire de la discrimination. Mme Zhang donne l’exemple d’une recherche qui a démontré qu’en 2015, « les algorithmes de Google étaient beaucoup plus susceptibles de montrer des offres d’emplois très rémunérés » aux hommes plutôt qu’aux femmes.

Dans le domaine des services financiers, les algorithmes sont très sollicités pour aider et accélérer la prise de décision. Les banques et les compagnies d’assurance les utilisent pour traiter les réclamations, détecter les fraudes, établir des tarifications ou encore répondre à des demandes de crédit. Pour leurs clients aussi, la menace plane.

« S’il y a une augmentation de défaut de paiement chez une certaine partie de la population, l’algorithme va tenir compte de leurs caractéristiques spécifiques pour alimenter ses décisions futures. Alors, l’algorithme suggèrera peut-être que soit acceptée la demande de crédit d’une personne présentant ces caractéristiques, mais imposera un taux d’intérêt plus élevé par exemple, ce qui renforce la discrimination initiale », a illustré Nathalie de Marcellis-Warin, présidente-directrice générale du Centre interuniversitaire de recherche en analyse des organisations (CIRANO) et professeure à Polytechnique Montréal, lors du panel organisé par l’Autorité.

L’IA doit rendre des comptes

Le risque de mauvaises décisions et de biais éthique peut venir des données sur lesquelles se basent les algorithmes. Si les données manquent de qualité, la décision prise par l’intelligence artificielle risquera d’être biaisée.

L’autre grand facteur de la menace est le flou entourant le fonctionnement des algorithmes. Dans le jargon, cette opacité porte le nom de « boite noire », soit une intelligence artificielle dont les actions sont difficilement compréhensibles par les êtres humains. Pour y remédier, les gens du domaine travaillent à faire émerger un autre concept, celui de l’intelligence artificielle « explicable ».

« Lorsqu’un système basé sur l’intelligence artificielle arrive à un résultat, il faut que l’institution financière soit en mesure d’expliquer comment son algorithme en est arrivé à ce résultat afin de prouver qu’il n’y a pas eu de discrimination ou de biais dans les données », a ainsi défendu Charles Morgan, avocat en droit des technologies chez McCarthy Tétrault, président de la International Technology Law Association (ITechLaw) et membre du comité consultatif sur les innovations technologiques de l’Autorité, lors du Rendez-vous.

Pour Lionel Pimpin, premier vice-président, canaux numériques et stratégies particuliers et entreprises, à la Banque Nationale, « il n’y a pas de boite noire, il n’y a juste personne qui regarde dans la boite pour s’assurer que l’on comprenne ce qu’il s’y passe ». Intervenant lors du panel organisé par l’Autorité, M. Pimpin estime qu’il ne faut pas se demander « si », mais « comment » réinventer les modèles d’affaires. « Par contre, les attentes des clients, elles, ne vont pas changer. Il y aura toujours des questions de confiance et de transparence auxquelles il faudra pouvoir répondre », a-t-il poursuivi.

Un encadrement nécessaire

En Europe, depuis 2018, le Règlement général sur la protection des données (RGPD) « énonce explicitement qu’une personne a le droit de ne pas être assujettie à une décision fondée “uniquement” sur un traitement automatisé », note dans son article Mme Zhang. Le RGPD donne aussi un « droit à l’explication » aux personnes victimes d’une « décision algorithmique qui l’affecte de façon significative ».

Si la volonté de mieux contrôler les décisions des algorithmes commence à faire son chemin, la règlementation au niveau mondiale « est passablement à un stade précoce », constate cependant l’experte. Pourtant, tout comme l’instauration d’un cadre de protection des renseignements personnels, l’instauration d’un encadrement éthique des algorithmes sera inévitable, estiment les experts.

« Les divers intervenants de notre écosystème canadien doivent jouer leur rôle pour être mieux informés de ses risques potentiels et exiger que les algorithmes soient déployés en toute sécurité à des fins commerciales et qu’ils soient examinés sous l’angle de la sécurité publique », clame Mme Zhang.

Dans la même idée, Mme de Marcellis-Warin a concédé qu’on « ne pourra pas tout expliquer, puisque les algorithmes sont là pour dépasser l’intelligence humaine », mais a insisté sur le fait que « la confiance des clients ne sera renforcée que si l’on s’assure que les données et les algorithmes utilisés n’accentuent pas les à priori, les biais que l’Homme avait initialement. »