Imaginez que vous êtes dans une voiture qui roule toute seule. Vous êtes assis sur la banquette arrière, en train de jouer à un jeu sur votre téléphone, quand soudain, la voiture prend la décision rapide de faire un écart et d’éviter de heurter un chien qui a couru dans la rue. Mais ce faisant, il percute une autre voiture. Voici la grande question : qui est responsable de cet accident ? Est-ce vous, l’entreprise qui a fabriqué la voiture, ou peut-être le logiciel qui contrôle la voiture ?
C’est ce que les gens tentent de comprendre à mesure que les voitures autonomes, également appelées voitures autonomes, deviennent de plus en plus courantes. Il y a des tonnes de questions éthiques et juridiques sur qui est responsable lorsque ces voitures sont accidentées, et ce n’est pas toujours une réponse facile.
Comment les voitures autonomes prennent-elles des décisions ?
Pour comprendre le problème, il faut d’abord voir comment voitures autonomes travail. Ces voitures utilisent l’intelligence artificielle (IA) pour conduire. Considérez l’IA comme un cerveau ultra-intelligent qui traite toutes sortes d’informations, comme la vitesse de la voiture, où se trouvent les autres voitures et ce que font les feux de circulation. La voiture utilise des capteurs, des caméras et quelque chose appelé LIDAR (qui ressemble à un radar mais avec des lasers) pour « voir » son environnement.
Mais voici la partie délicate : parfois, la voiture doit prendre des décisions difficiles. Disons qu’une voiture se dirige vers un passage pour piétons et que soudainement deux personnes sautent sur la route. La voiture doit décider qui ou quoi protéger : les personnes dans le passage pour piétons ou le passager à l’intérieur de la voiture. Il s’agit d’une grande question éthique, et les gens cherchent encore comment apprendre à l’IA de la voiture à prendre ces décisions.
C’est un peu comme le « problème de chariot», qui est un casse-tête éthique célèbre. Dans le problème, un tramway fonce vers cinq personnes, et vous avez le pouvoir de changer de voie pour les sauver, mais cela blesserait une personne sur l’autre voie. Il n’y a pas de bonne réponse, et c’est exactement ce qui rend les choses si compliquées pour les voitures autonomes.
Qui est responsable d’un accident ?
Parlons maintenant de responsabilité. Dans un accident de voiture normal, le responsable est assez clair : c’est généralement l’un des conducteurs. Mais dans une voiture autonome, il se peut qu’il n’y ait pas de conducteur du tout, ou que la personne à bord de la voiture puisse même ne pas y prêter attention lorsque l’accident se produit. Alors qui est responsable ?
Il existe quelques options :
- Le fabricant: Si l’accident s’est produit parce que quelque chose dans la voiture a mal fonctionné, comme si les freins ne fonctionnaient pas, alors l’entreprise qui a fabriqué la voiture pourrait être tenue pour responsable.
- Le développeur de logiciels: Si le problème venait de la prise de décision de l’IA, la société qui a conçu le logiciel pourrait être blâmée. Cela pourrait se produire si la voiture faisait le mauvais choix dans une situation d’urgence.
- Le passager humain: Certaines voitures autonomes exigent toujours que les gens soient prêts à prendre le contrôle en cas de problème. Si un accident se produit et que l’humain n’y prête pas attention, il pourrait être tenu responsable.
- Entreprises tierces: Parfois, une autre entreprise peut être chargée de l’entretien des voitures (comme un service de covoiturage qui utilise des voitures autonomes). Si quelque chose n’était pas réparé correctement, ils pourraient être responsables de l’accident.
Un exemple concret de cela s’est produit dans 2018 lorsqu’une voiture autonome Uber a heurté et tué un piéton. Dans ce cas, il s’est avéré que le conducteur de sécurité n’y prêtait pas attention, mais que l’IA de la voiture n’agissait pas non plus assez rapidement. Il y a toujours un énorme débat sur qui est vraiment à blâmer.
Aide juridique
Lorsque vous êtes impliqué dans un accident, qu’il s’agisse d’une voiture ordinaire ou d’une voiture autonome, cela peut être difficile. Vous ne savez peut-être pas qui est à blâmer ni comment gérer le système juridique. C’est ici embaucher un avocat spécialisé dans les accidents de voiture peut aider.
Un avocat expérimenté peut déterminer si l’accident est dû à un dysfonctionnement de la voiture, à une erreur logicielle ou même à la négligence d’un autre conducteur. Ils sauront comment rassembler des preuves et traiter avec les compagnies d’assurance, ce qui est important pour déterminer qui doit payer les dommages. De plus, si l’affaire est portée devant les tribunaux, ils seront en mesure de vous représenter et de s’assurer que vous obtenez un résultat équitable.
Ils peuvent également vous guider sur les mesures à prendre immédiatement après l’accident. Comment déposer un rapport de police, comment documenter la scène ou quand demander des évaluations médicales. Cela garantit que vous ne manquerez aucune étape importante qui pourrait affecter votre dossier à l’avenir.
Les décisions difficiles de l’IA
Revenons à l’idée selon laquelle la voiture prend des décisions. Imaginez ceci : une voiture autonome est sur le point de heurter un cerf qui saute soudainement sur la route. L’IA a une fraction de seconde pour décider : doit-elle faire un écart pour éviter le cerf et éventuellement s’écraser sur une autre voiture, ou doit-elle maintenir le cap et heurter l’animal ?
Il n’est pas toujours clair comment l’IA doit être programmée pour gérer ces situations. Dans un pays, les gens pourraient penser que la voiture devrait toujours protéger la vie humaine avant tout. Ailleurs, certains pourraient faire valoir que la voiture devrait minimiser les dommages causés au plus grand nombre de personnes possible, même si cela met les passagers en danger. Et ces décisions peuvent changer en fonction de différentes cultures ou même de préférences individuelles.
À l’heure actuelle, les entreprises qui construisent ces voitures tentent de créer des lignes directrices éthiques pour aider l’IA à prendre ce genre de décisions. Mais c’est super compliqué, car personne n’est vraiment d’accord sur la « bonne » réponse à ces problèmes.
Peut-on faire confiance aux voitures autonomes ?
La confiance constitue une grande partie du débat sur les voitures autonomes. Les gens veulent savoir s’ils peuvent compter sur ces voitures pour prendre les bonnes décisions en cas d’urgence. Et la confiance est difficile à gagner, surtout lorsque des accidents surviennent encore.
Une façon pour les entreprises d’instaurer la confiance est d’être transparentes. Cela signifie qu’ils doivent être ouverts sur le fonctionnement de leurs voitures et sur les types de décisions que l’IA est programmée pour prendre. Lorsque les gens comprennent ce qui se passe sous le capot, ils sont plus susceptibles de se sentir en sécurité.
Mais il est également effrayant de penser à laisser une machine prendre des décisions de vie ou de mort à notre place. Même si les voitures autonomes sont généralement plus sûres que les conducteurs humains (puisque les humains sont distraits ou commettent des erreurs plus souvent), il reste difficile d’abandonner complètement le contrôle.
Des entreprises comme Tesla et Waymo affirment que leur technologie est plus sûre que les conducteurs humains, mais il existe encore beaucoup de scepticisme. Une enquête de 2022 a montré que seulement 9% des Américains déclarent faire confiance aux voitures autonomes, tandis que 68 % déclarent en avoir peur.
Comment les gouvernements et les entreprises gèrent-ils cette situation ?
Les gouvernements du monde entier tentent d’élaborer des règles pour guider les voitures autonomes. Aux États-Unis, le Ministère des Transports a publié des lignes directrices pour les véhicules autonomes, mais les lois sont encore en train de rattraper leur retard technologique.
Certains suggèrent que les constructeurs automobiles devraient cotiser à un fonds d’assurance couvrant les accidents causés par les véhicules autonomes. D’autres pensent que nous avons besoin de réglementations plus strictes sur la manière dont les entreprises testent leurs systèmes d’IA avant de les mettre en circulation.
Du côté des entreprises, la responsabilité incombe à la fois aux constructeurs automobiles et aux développeurs de logiciels. Ils doivent travailler ensemble pour s’assurer que l’IA est sûre et que les voitures peuvent gérer toutes sortes de situations du monde réel.
En résumé
En fin de compte, la question de savoir qui est responsable en cas d’accident d’une voiture autonome reste un grand casse-tête. Il est clair qu’il n’existe pas de réponse universelle et la manière dont nous gérerons ces situations dépendra du type de systèmes juridiques et éthiques que nous mettrons en place.
Alors que le nombre de voitures autonomes continue de croître, nous devrons trouver un équilibre entre sécurité, confiance et responsabilité. Qu’il s’agisse du constructeur automobile, du développeur de logiciels ou même du passager humain, toutes les personnes impliquées ont un rôle à jouer pour garantir la sécurité de ces véhicules pour toutes les personnes sur la route.
C’est une tâche immense, mais si nous y parvenons, les voitures autonomes pourraient constituer un énorme pas en avant pour rendre nos routes plus sûres.
Crédit image en vedette : Shubham Dhage/Unsplash