Selon le cabinet Lavery Avocats, l’encadrement actuel serait à parfaire pour répondre spécifiquement aux mesures de sécurité des voitures autonomes.

Rien dans la législation actuelle n’empêche la répétition d’un accident similaire à celui survenu en mars 2018 en Arizona, impliquant une voiture autonome de niveau 3, indique l’avocate Léonie Gagné, dans une note produite à l’intention des clients de Lavery, et dont le Portail de l’assurance a obtenu copie.

Le véhicule impliqué dans l’accident en Arizona, bien que toujours à son stade de mise au point, correspond à un véhicule automatisé de niveau 3. De telles voitures circulent en ce moment sur les routes du Québec, et ce, en toute légalité, fait remarquer Me Gagné.

« Au Canada, la Loi sur la sécurité automobile et ses règlements connexes régissent la fabrication et l’importation des véhicules et équipements automobiles en vue de limiter les risques de mort, de blessures et de dommages matériels et environnementaux. Or, aucune disposition ne prévoit actuellement l’encadrement spécifique des logiciels de conduite automatisée ni ne régit les risques associés à l’inattention des conducteurs de véhicules automatisés de niveau 3 », écrit-elle.

Recommandations américaines

Me Gagné a aussi analysé les recommandations du National Transportation Safety Board (NTSB) des États-Unis pour produire sa note. Parmi celles-ci, l’expérience et la connaissance de la conductrice ne constituaient pas des facteurs dans l’accident, non plus que sa fatigue ou ses facultés, ni même l’état mécanique du véhicule.

Un examen de la piétonne a aussi révélé la présence dans son organisme de drogues susceptibles d’affaiblir sa perception et son jugement, a relevé le NTSB. Le système de conduite automatisée d’Uber, pour qui la dame conduisait, n’a pas anticipé de manière adéquate ses limites quant à sa sécurité, y compris son incapacité de qualifier la piétonne et de prédire son trajet, ajoute le NTSB.

De plus, d’après l’enquête du NTSB, la conductrice du véhicule était distraite dans les moments qui ont précédé l’accident. Si elle avait été attentive, elle aurait eu le temps de voir la piétonne et de prendre le contrôle du véhicule pour éviter l’accident ou mitiger ses impacts, a indiqué le NTSB.

De surcroit, Uber n’a pas adéquatement reconnu les risques liés à la distraction des conducteurs de ses automobiles, a constaté le NTSB. Uber a retiré de ses essais le second conducteur du véhicule, faisant en sorte de confier l’entière responsabilité de l’intervention en situation critique à la seule conductrice et ainsi réduire la sécurité du véhicule.

Il a été déterminé que la cause probable de l’accident a été la distraction de la conductrice et son défaut de prendre le contrôle du véhicule autonome en situation critique. Des facteurs additionnels ont été déterminés, notamment l’insuffisance des mesures de sécurité du véhicule et de surveillance des conducteurs, démontrant des carences au niveau de la culture de sécurité d’Uber.

« Avec l’arrivée des véhicules autonomes au pays, en marge des recommandations du NTSB et pour assurer la sécurité de tous, l’encadrement actuel serait à parfaire pour répondre spécifiquement aux mesures de sécurité des voitures autonomes », conclut Léonie Gagné.