Rapport du Club des juristes sur la régulation des voitures autonomes

Le Club des juristes publie ce 15 avril 2026 un rapport consacré à la régulation des voitures autonomes en Europe. Le document met en évidence les obstacles juridiques qui freinent leur déploiement, au premier rang desquels la fragmentation du cadre normatif entre droit international, droit de l’Union et règles nationales de circulation.

Il souligne également la superposition de plusieurs régulations (IA, données personnelles, cybersécurité). Le rapport pointe enfin les incertitudes persistantes en matière de responsabilité et d’assurance en cas d’accident. Il formule 52 recommandations pour clarifier ce cadre et favoriser l’essor de la mobilité automatisée.

 

Le rapport du Club des juristes1 offre une analyse approfondie de la régulation des voitures autonomes en Europe. Construit en trois parties2, il formule 52 recommandations. L’essor de la mobilité automatisée soulève des problématiques juridiques importantes parmi lesquelles figurent notamment la fragmentation normative du cadre applicable aux véhicules à conduite autonome ; la redéfinition du rôle et du degré de contrôle exercé par l’opérateur humain ; l’encadrement juridique des données et des systèmes fondés sur l’intelligence artificielle ; l’imputation de la responsabilité et le régime adopté en cas d’accidents ; l’adaptation du régime assurantiel ; l’instauration de dispositifs d’expérimentation juridiquement sécurisés (test beds), ainsi que l’intégration des dimensions éthiques inhérentes à ces technologies. L’Union européenne accuse un retard significatif dans le déploiement des véhicules autonomes au sein du marché intérieur. Ce retard procède de causes multiples, au rang desquelles la nature et l’intensité de la régulation occupent une place déterminante. Pour résumer le rapport, nous évoquerons trois points : la fragmentation des règles, la superposition des règles, les perspectives et réflexions en cours.

Fragmentation des règles

Le verrou international : la Convention de Vienne

Le rapport souligne que la Convention de Vienne sur la circulation routière, amendée en 2022 (art. 34 bis), a levé l’interdiction de principe de la conduite automatisée. Toutefois, l’amendement reste partiel. Il ne crée aucun droit subjectif à circuler et demeure construit autour de l’idée qu’un conducteur humain doit conserver un certain contrôle. De plus, tout système de conduite automatisé (ADS) doit être conforme à un règlement technique de l’UNECE (ONU). Or, le groupe WP.293 n’a adopté qu’un règlement applicable au niveau 34 (règl. n° 157, ALKS5). Aucun règlement technique de l’UNECE ne couvre donc, à ce stade, les systèmes de conduite automatisée de niveaux 4 et 5.

Il en résulte que l’amendement de la Convention de Vienne n’emporte pas, à lui seul, ouverture générale à la circulation de tels véhicules. Il se borne à lever l’obstacle de principe, sous réserve du respect d’une réglementation technique applicable. En d’autres termes, la circulation des véhicules les plus autonomes (niveaux 4 et 5) demeure juridiquement suspendue à l’adoption de standards techniques internationaux plus complets.

Le droit de l’Union : l’homologation comme clé d’entrée

Le règlement (UE) 2018/858 fixe le cadre général d’homologation des véhicules. Le règlement (UE) 2022/2236 a marqué une avancée en fixant les exigences techniques et procédures d’essai pour les systèmes de niveaux 3 et 4, incluant les conditions d’activation, la sécurité fonctionnelle, la cybersécurité et la traçabilité des données.

Dans le cadre de l’Union européenne, la réception par type (homologation des véhicules) est donc harmonisée au niveau européen par le règlement (UE) 2018/858. Les règlements techniques adoptés par le WP. 29 (CEE-ONU) y sont intégrés et deviennent contraignants pour l’ensemble des États membres. Il n’existe donc pas, à proprement parler, de procédures d’homologation nationales concurrentes, ce qui renforce l’harmonisation. Les règles d’homologation ont permis l’introduction progressive de certaines fonctions automatisées en définissant des exigences techniques et de sécurité.

Néanmoins, les conditions concrètes d’utilisation des systèmes (activation, supervision, reprise en main) demeurent exclusivement définies au niveau national. Des dispositifs nationaux concernent les conditions d’accès à la voie publique et non la réception par type du véhicule lui-même. C’est précisément cette distinction entre homologation technique (compétence UE/CEE-ONU) et autorisation de circulation (compétence relevant des États membres) qui contribue à la fragmentation normative.

Si l’homologation technique (réception par type) constitue déjà une forme de certification européenne unifiée, car un véhicule homologué dans un État membre l’est pour l’ensemble du marché intérieur, les autorisations de mise en circulation et de déploiement opérationnel, à savoir les conditions dans lesquelles un véhicule autonome peut effectivement circuler sur la voie publique dans un territoire donné, dépendent des propres exigences (domaine opérationnel autorisé, obligations de l’opérateur, supervision à distance, etc.) de l’État membre en question.

Autrement dit, l’homologation ne signifie pas qu’un véhicule est autorisé à rouler sur la voie publique. Un véhicule autonome homologué à Berlin ne va pas nécessairement être autorisé à circuler à Paris. L’homologation ne permet pas de franchir la potentielle barrière des vingt-huit régimes nationaux distincts qui peuvent ou non autoriser la circulation de la voiture sur leur territoire. L’autorisation d’utilisation délivrée au niveau national laisse donc ouvertes plusieurs questions juridiques importantes, notamment en matière de circulation transfrontalière et de coordination entre les régimes nationaux applicables. Cette fragmentation est contraire à l’esprit du marché unique et constitue un obstacle significatif au déploiement des voitures autonomes dans l’Union.

Superposition des règles

Les obligations ex ante

Le rapport souligne que la régulation des voitures autonomes ne se réduit pas à l’homologation. Plusieurs couches d’obligations ex ante se superposent. Les illustrations suivantes sont débattues largement dans le rapport.

Premièrement, le règlement européen sur l’IA est applicable aux voitures autonomes. L’IA embarquée dans une voiture autonome est classée « haut risque », ce qui impose aux constructeurs une documentation technique détaillée ; la classification des risques ; la mise à disposition des données d’entraînement ; l’enregistrement dans une base européenne et une surveillance post-commercialisation. Toutefois, ce cadre à peine stabilisé pourrait être remis en cause par le projet de règlement Omnibus6, présenté par la Commission européenne comme un exercice de simplification réglementaire. Sous couvert de simplification, ce texte risque paradoxalement d’introduire une nouvelle source d’incertitude juridique en modifiant les seuils de classification, en redéfinissant certaines obligations ou en aménageant des exemptions.

Deuxièmement, le règlement européen sur les données à caractère personnel constitue un risque juridique évident pour les entreprises. Les voitures autonomes collectent massivement des données sur les propriétaires et sur les tiers (piétons filmés, plaques d’immatriculation). Le rapport recommande de dissocier le consentement du propriétaire des conditions générales d’utilisation (CGU) ; de ne traiter que les données essentielles au fonctionnement ; d’anonymiser les données des personnes extérieures au véhicule ; et d’investir dans les technologies de protection de la vie privée (Privacy-Enhancing Technologies [PET]).

Troisièmement, afin de répondre aux risques cybernétiques, la Commission économique des Nations unies pour l’Europe (CEE-ONU/UNECE) a adopté deux règlements majeurs : le règlement R155 sur la cybersécurité des véhicules et le règlement R156 sur les mises à jour logicielles. Le rapport alerte sur le risque de prise de contrôle à distance, de manipulation des capteurs et de falsification des données. Il formule plusieurs recommandations comme l’authentification multifactorielle pour les accès aux systèmes critiques et le renforcement des mécanismes de partage d’informations sur les menaces cyber (Threat Intelligence) entre constructeurs, équipementiers et experts en cybersécurité, notamment au sein d’initiatives sectorielles telles que l’Auto-ISAC.

La responsabilité civile et pénale

Le règlement européen sur l’IA ne résout pas la question de savoir quel régime de responsabilité civile est applicable en cas d’accident. La proposition de directive sur la responsabilité civile en matière d’IA (AILD) a été récemment abandonnée. Elle laisse un vide que la nouvelle directive sur les produits défectueux7 ne comble que partiellement.

La survenance d’un sinistre impliquant un véhicule doté d’un système de conduite automatisée pose une interrogation fondamentale : sur qui doit peser la charge de la réparation ? Le détenteur du véhicule, le fabricant, le fournisseur d’un composant critique (tel qu’un capteur LiDAR) ou encore le concepteur de l’algorithme décisionnel ? Derrière cette question d’apparence simple se dissimule une insuffisance des régimes de responsabilité civile en vigueur au sein de l’Union européenne. Le fait qu’un véhicule autonome puisse relever du champ d’application du règlement européen sur l’intelligence artificielle ne comble en rien ce vide. Ce texte organise des obligations de conformité ex ante, mais reste muet sur le régime indemnitaire applicable lorsqu’un préjudice survient.

Trois ordres de difficultés peuvent être identifiés. Le premier tient à l’imputation : la multiplicité des intervenants (concepteurs, intégrateurs, éditeurs de mises à jour logicielles, opérateurs de mobilité) dans le cycle de vie du véhicule autonome rend l’identification du responsable particulièrement malaisée. Le deuxième a trait à l’établissement du fait générateur de responsabilité, qu’il s’agisse de démontrer une faute dans le cadre de la responsabilité délictuelle de droit commun, de caractériser la garde au sens de la responsabilité du fait des choses, ou encore d’établir l’existence d’un défaut au titre du régime des produits défectueux. Le troisième concerne le lien de causalité. Prouver qu’un dysfonctionnement spécifique du système d’intelligence artificielle est à l’origine directe du dommage se heurte à l’opacité inhérente aux processus décisionnels algorithmiques.

En l’état du droit positif, cette indétermination est renforcée par l’abandon du projet de directive relative à la responsabilité civile en matière d’intelligence artificielle, qui aurait pu offrir un cadre harmonisé. La nouvelle directive relative à la responsabilité du fait des produits défectueux constitue toutefois une solution utile pour les victimes et l’assureur subrogé agissant contre le fabricant d’un véhicule autonome8. En tout état de cause, l’incertitude qui affecte tant le fondement juridique mobilisable que la ventilation de la charge indemnitaire entre le constructeur, l’opérateur de services de mobilité et l’utilisateur final est de nature à constituer un obstacle à l’engagement des investissements nécessaires au déploiement de cette technologie sur le marché européen. Le rapport formule, à cet égard, plusieurs recommandations majeures : retenir une responsabilité objective du fabricant pour les dommages causés par l’IA embarquée9 ; rétablir le cumul possible de la responsabilité du fait des choses et de la responsabilité du fait des produits défectueux ; supprimer, pour les véhicules de niveau 4 ou 5, la distinction entre victime conductrice et victime non conductrice10 ; clarifier la question, encore largement impensée, du délai de reprise en main11, dont l’indétermination est particulièrement grave dès lors qu’elle conditionne à la fois l’imputation de l’accident, l’appréciation de la faute éventuelle de l’utilisateur et, en amont, les choix de conception des constructeurs ; enfin, réexaminer l’exonération pour risque de développement12, question centrale pour l’équilibre entre protection des victimes et soutien à l’innovation.

Outre la responsabilité civile, la responsabilité pénale est également couverte par le rapport. En matière pénale, le législateur français a fait le choix d’attribuer au constructeur la responsabilité des infractions commises lorsque le système automatisé exerce le contrôle dynamique du véhicule. Toutefois, cette responsabilité demeure étroitement encadrée. Elle est limitée aux seuls délits d’atteintes involontaires à la vie ou à l’intégrité physique ; subordonnée à la démonstration d’une faute au sens de l’article 121-3 du code pénal ; et restreinte aux situations où le système fonctionne dans ses conditions normales d’utilisation. Le lien de causalité entre le constructeur et le dommage étant généralement qualifié d’indirect, la condamnation suppose en principe la preuve d’une faute délibérée ou caractérisée, sauf lorsque le constructeur est une personne morale, auquel cas une simple négligence suffit. Le dispositif est complété par un mécanisme de « redevabilité pénale » pour les contraventions permettant de faire peser sur le constructeur la charge de l’amende sans véritable déclaration de culpabilité, ce qui atténue la portée répressive du système.

Du côté du conducteur, l’irresponsabilité proclamée par le code de la route se révèle largement illusoire. Si le texte écarte l’application de l’article L. 121-1 pendant le fonctionnement du système automatisé, le droit pénal commun continue de s’appliquer, notamment pour les atteintes involontaires. Surtout, la responsabilité du conducteur est expressément restaurée dès la reprise en main (voiture autonome de niveau 3). L’obligation légale de se tenir en permanence en état et en position de reprendre le contrôle réduit encore considérablement la portée de cette irresponsabilité. En définitive, le législateur a privilégié une logique d’addition des responsabilités plutôt que de substitution, maintenant le conducteur sous l’empire du droit commun tout en superposant une responsabilité du constructeur aux contours encore incertains.

L’assurance

Plus généralement, sur le plan assurantiel, le déploiement des véhicules autonomes soulève des interrogations d’une ampleur inédite. Le modèle traditionnel de l’assurance automobile repose sur l’évaluation du risque lié au comportement du conducteur (son âge, son expérience, son historique de sinistralité). Or, à mesure que la conduite est déléguée à un système algorithmique, ce paradigme perd sa pertinence. Le risque se déplace du conducteur vers le produit lui-même, ce qui appelle une refonte profonde des critères de tarification et de la répartition de la charge assurantielle entre l’utilisateur et le constructeur. Le rapport recommande, à cet égard, le maintien de l’assurance obligatoire, condition indispensable pour garantir l’indemnisation rapide des victimes indépendamment des incertitudes affectant la détermination du responsable final. Ce maintien n’est toutefois pas sans difficulté. Les assureurs devront élaborer de nouveaux modèles de tarification fondés non plus sur le seul profil du conducteur, mais sur les données de performance et de fiabilité des systèmes autonomes.

Cette évolution suppose un accès aux données de conduite générées par le véhicule, ce qui soulève d’inévitables tensions avec les exigences du RGPD en matière de protection des données personnelles et avec la propriété intellectuelle des constructeurs sur leurs algorithmes. Se pose également la question de l’accès des experts automobiles aux données embarquées qui est indispensable à la reconstitution des circonstances de l’accident pour évaluer les responsabilités. Le rapport préconise à cet effet une redéfinition du cadre d’accès à ces données afin de concilier les impératifs de l’expertise technique, les droits des victimes, et la protection des informations sensibles du constructeur. Sans un tel cadre, le risque est celui d’une asymétrie d’information au détriment des victimes et de leurs assureurs qui se trouveraient dans l’impossibilité pratique d’exercer efficacement leur recours subrogatoire contre le fabricant.

Perspectives et réflexions

Dans un contexte marqué par les rapports de Mario Draghi et Enrico Letta qui soulignent le déficit de compétitivité européenne face aux États-Unis et à la Chine, la régulation des véhicules autonomes apparaît comme un révélateur d’un choix de modèle. Trois approches sont souvent invoquées : un modèle américain fondé sur l’apprentissage par le déploiement, un modèle chinois structuré autour de zones pilotes au service d’une stratégie industrielle, et un modèle européen caractérisé par un encadrement juridique préalable.

Le rapport invite à réfléchir sur l’évolution de son modèle de régulation. Dans un contexte d’incertitude réglementaire, les zones d’expérimentation jouent un rôle déterminant. Véritables laboratoires normatifs, elles permettent d’éprouver des solutions techniques en conditions réelles dont les enseignements viennent ensuite nourrir les futurs standards d’homologation. Au lieu d’attendre l’achèvement du cadre réglementaire pour expérimenter, ces tests permettent d’expérimenter pour en accélérer la construction. Ils remplissent une fonction stratégique. Ils fournissent les données empiriques indispensables à la normalisation internationale, permettent de tester des systèmes de niveau 4 non encore homologables, et confèrent aux États qui en disposent un avantage décisif dans l’élaboration des futures règles. Cette stratégie n’est toutefois pas exempte de risques, comme l’augmentation significative des accidents dans les zones de test liée aux interactions entre véhicules autonomes et conducteurs humains. Ces risques peuvent néanmoins être corrigés.

Enfin, le rapport refuse de réduire l’éthique à un exercice théorique déconnecté du droit et du marché. L’acceptabilité sociale conditionne directement le déploiement commercial. Le rapport recommande un « plancher éthique commun » européen. Il reprend le principe de la Commission allemande d’éthique selon lequel toute hiérarchisation des vies humaines est proscrite, tout en ouvrant le débat sur cette question, car d’autres approches, comme celles pratiquées en milieu médical, s’y opposent.

Conclusion

Le rapport du Club des juristes démontre que le retard européen dans le déploiement des voitures autonomes résulte à la fois de la fragmentation et de la superposition des règles sans cohérence d’ensemble. Il formule de nombreuses recommandations pour rattraper ce retard et combler les lacunes du régime applicable aux véhicules à délégation de conduite. La prudence normative et l’accumulation des législations peuvent légitimement susciter des inquiétudes. Toutefois, il faut se garder de conclure trop vite que la prudence réglementaire européenne constitue en soi une lacune. La tentation est forte de surestimer les modèles de régulation fondés sur la vitesse de déploiement et de sous-estimer ceux qui privilégient la construction préalable d’un cadre juridique solide, au seul motif que les premiers produisent des résultats visibles plus rapidement. La réalité est plus subtile. Le temps du droit n’est pas celui de la technologie. Là où l’innovation procède par itérations rapides, essais et corrections successives, le droit construit des architectures durables dont la vocation est précisément de résister aux aléas du marché et aux fluctuations des cycles industriels. Le retard que l’Europe accuse aujourd’hui dans la mise en circulation de véhicules autonomes pourrait ainsi se révéler, à moyen terme, un avantage décisif. Ce que le droit perd en rapidité, il le compense en prévisibilité. Peut-être pouvons-nous risquer cette formule en considérant qu’un cadre juridique incertain a tendance à favoriser les pionniers, tandis qu’un cadre juridique stable a tendance à favoriser les marchés. C’est précisément la stabilité et la cohérence du cadre juridique applicable aux voitures autonomes que le Club des juristes cherche à promouvoir. La confiance des marchés ne dépend pas seulement de la rapidité du déploiement technologique, mais également de la sécurité juridique offerte aux opérateurs, de la confiance accordée par les usagers et de la capacité du droit à organiser, de manière intelligible, la répartition des risques et des responsabilités. 

 

1. La régulation des voitures autonomes, Rapport sous la présidence de L. Schweitzer, rapporteur G. de Boiscuillé, (Club des juristes, avr. 2026)
2. Partie I : Régulation ex ante. Partie II : Régulation ex post. Partie III : Enjeux éthiques.
3. Le WP. 29 (World Forum for Harmonization of Vehicle Regulations) est un organe subsidiaire de la Commission économique pour l’Europe des Nations unies (CEE-ONU). Il constitue l’instance normative internationale de référence en matière d’élaboration et d’harmonisation des prescriptions techniques applicables aux véhicules à moteur, à leurs équipements et à leurs pièces.
4. Le niveau 3 d’automatisation, tel que défini par la norme SAE J3016 de la Society of Automotive Engineers, correspond à une conduite automatisée conditionnelle (conditional driving automation). À ce niveau, le système assure l’ensemble des tâches dynamiques de conduite dans un domaine opérationnel défini tout en requérant du conducteur qu’il soit en mesure de reprendre le contrôle du véhicule à la demande du système dans un délai raisonnable.
5. Le règlement n° 157 de la CEE-ONU, adopté en 2021, porte sur les systèmes automatisés de maintien dans la voie (Automated Lane Keeping Systems – ALKS). Il constitue, à ce jour, le premier et unique instrument réglementaire international encadrant un système de conduite automatisée de niveau 3. Son champ d’application est toutefois limité. Il ne s’applique qu’aux situations de conduite sur autoroute, à une vitesse maximale de 60 km/h, dans des conditions de trafic dense ou à faible vitesse.
6. Proposition de Règl. du Parl. UE et du Conseil relatif à la simplification de la mise en œuvre des règles harmonisées en matière d’intelligence artificielle (Digital Omnibus on AI), présentée par la Commission européenne le 19 nov. 2025.
7. Dir. (UE) 2024/2853.
8. G. de Boiscuillé, La responsabilité du fait des produits défectueux appliquée à l’intelligence artificielle : le choix de la raison, Archives de philosophie du droit, vol. 66, 2026, p. 367.
9. À défaut de retenir une telle solution, le rapport suggère de retenir une présomption de faute contre le fabricant en cas de dysfonctionnement de l’algorithme ayant causé un dommage.
10. La loi n° 85-677 du 5 juill. 1985, dite « loi Badinter », opère une distinction fondamentale entre la victime conductrice, dont le droit à indemnisation peut être réduit ou exclu en cas de faute, et la victime non conductrice (piéton, passager, cycliste), qui bénéficie d’une protection quasi absolue. Or, dans un véhicule autonome de niveau 4 ou 5, l’occupant n’exerce plus aucune maîtrise effective sur la conduite. Appliquer le régime du conducteur fautif reviendrait à lui imputer les conséquences d’une décision algorithmique sur laquelle il n’a, par hypothèse, aucune prise.
11. Le délai de reprise en main désigne le temps accordé à l’occupant d’un véhicule autonome pour reprendre le contrôle manuel lorsque le système le lui demande. L’absence de cadre normatif précis sur ce point crée une zone grise juridique considérable. Selon que ce délai est jugé suffisant ou non, la responsabilité basculera du constructeur vers l’utilisateur, ce qui affecte directement l’indemnisation des victimes et la sécurité juridique de l’ensemble des acteurs.
12. Le risque de développement est une cause d’exonération prévue par le droit de la responsabilité du fait des produits défectueux, qui permet au fabricant d’échapper à sa responsabilité s’il démontre que l’état des connaissances scientifiques et techniques, au moment de la mise en circulation du produit, ne permettait pas de déceler le défaut. Appliquée aux systèmes d’IA, cette exonération soulève une difficulté particulière. Ces systèmes évoluent en permanence par apprentissage, de sorte que la notion même de « mise en circulation » et d’« état des connaissances » devient mouvante.

 

par Godefroy de Boiscuillé, Maître de conférences à UniCA (Nice) et Co-directeur de la Chaire CDE (Université Paris Panthéon-Assas – Fondation Assas)

Source

© Lefebvre Dalloz