Véhicules autonomes à intelligence artificielle et responsabilités

Publié le par

Ayant travaillé sur des outils d’intelligence artificielle et connaissant très bien le secteur automobile, je vous propose de nous focaliser sur la responsabilité dans le cadre des véhicules dotés d’intelligence artificielle.

Ce statut dépend de deux choses : de la façon dont ils sont élaborés mais aussi du cadre juridique dans lequel ils s’insèrent. La base est de comprendre les briques nécessaires au véhicule autonome avec intelligence artificielle. Ensuite, une analyse juridique de cette base va aider à définir le modèle de responsabilités et les solutions préconisées.

L’intelligence artificielle se construit comme le cerveau d’un enfant

Qu’est-ce qu’un véhicule autonome doté d’intelligence artificielle ?
Il est important de décrire à la base les modalités de réalisation d’un tel véhicule. De manière imagée nous allons comparer un véhicule doté d’intelligence artificielle avec un enfant.

Dans un premier temps, nous avons donc besoin d’un cerveau pour ce type de véhicule. Il s’agit du cerveau tel qu’un enfant pourrait en disposer avant tout apprentissage. De manière biologique, ce sont les cellules du cerveau capables de développer des connexions neuronales. À la naissance, les cellules sont présentes mais les connexions neuronales ne sont pas encore développées.

Ensuite, il y a les enseignements que l’on donne à ce cerveau brut. Cela correspond au langage et à l’éducation, socles de développement d’un enfant.
Entre les deux, le cerveau de l’enfant et les savoirs, il y a les parents, l’entourage et les professeurs qui influent sur la façon dont le jeune enfant va apprendre et par là même son cerveau va se développer.
Pour le véhicule autonome, c’est la même chose : il convient d’avoir une première brique qui est « l’outil » brut de l’intelligence artificielle, le « cerveau ». Sur le marché, il existe des outils dédiés tels que IBM Watson, Google DeepMind, Microsoft AI. Ces modules sont prêts à apprendre. À l’image d’un enfant, l’inné, de ces modules ne sont pas identiques. Certains sont plus performants que d’autres.

Dans un second temps, il y a les programmes à enseigner. Par exemple, dans le cadre d’un véhicule autonome, il y a le code de la route lui-même encadré par les réglementations nationales et conventions internationales. En France, il y a la loi 2015-992 du 17 août 2015 relative à la transition énergétique pour la croissance verte, JO du 18-8-2015, l’article 37 de l’ordonnance n° 2016-1057 du 3 août 2016 relative à l’expérimentation de véhicules à délégation de conduite sur les voies publiques. Au niveau international, il existe la Convention de Vienne sur la circulation routière.

Le troisième élément essentiel est la façon de l’enseigner. Si on enseigne mal à un enfant les programmes d’histoire, son développement et sa compréhension du monde sera biaisée. Toutefois, un enfant en grandissant pourra affiner son jugement et corriger sa compréhension. Il en est de même avec l’intelligence artificielle basée sur la capacité d’auto-apprendre. Plus un véhicule à assistance de conduite aura été piloté par des humains, plus leurs pratiques de conduite seront communiquées au « cerveau » du véhicule qui va « apprendre » en développant des connexions neuronales.

Une responsabilité à définir

Qui est responsable du « comportement » du véhicule autonome doté d’intelligence artificielle ?
Est-ce celui qui a « fourni » le cerveau de base comme IBM, Google, Microsoft ?
Est-ce celui qui a enseigné les programmes pour développer les connexions neuronales ? C’est-à-dire les sociétés de développement des véhicules autonomes (Google Cars, Tesla, Otto, Zoox…).
Est-ce les infrastructures mises en place par les sociétés type Vinci, Véolia au sein des villes et qui vont interagir avec les véhicules pour communiquer des informations ?

À ce jour, la question est encore très ouverte. D’expérience, le législateur français va probablement vouloir réguler ce sujet notamment en collaboration avec les assurances pour indemniser les « conducteurs-passagers » de ces véhicules.

Néanmoins, derrière ces processus d’indemnisation automatiques, les principes de base de la responsabilité vont s’appliquer. Celui qui est à l’origine de la cause du dommage sera in fine le responsable. Aussi, les solutions à court terme qui sont préconisées sont, d’une part, la mise en place de relations contractuelles solides pour clarifier les rôles de ces acteurs et, d’autres part, un travail de veille juridique de chaque acteur pour détecter selon les pays les tendances qui seront retenues.
Un point juridique reste ouvert. Il s’agit de celui relatif aux réseaux « neuronaux » développés par l’usage qui vont se développer automatiquement au fur et à mesure. La machine va les développer elle-même, or le droit n’a pas à ce jour réglé à qui appartient cette « intelligence ».
Néanmoins, en termes de responsabilités, il semble logique que celui qui les exploitent en soit le responsable car il en tire un profit. Ce profit va lui permettre d’assumer les conséquences des dommages éventuels de son action. Cependant, il semble important de bien cadrer les transferts de responsabilités en amont pour éviter les mauvaises surprises.

De beaux chantiers juridiques en perspectives même s’il est urgent de contractualiser les relations entre ces acteurs !

Christophe Curtelin,
Partner - Avocat Associé ,
Vasco

En partenariat avec le En partenariat avec CNPA
A la une
La quotidienne Auto-infos