La régulation des systèmes d’intelligence artificielle repoussée en Californie
Alors que l’Union européenne s’est dotée d’un règlement sur l’intelligence artificielle (IA), la Californie fait marche arrière. Le gouverneur de Californie a mis son veto à la proposition de loi de sécurité de l’IA, justifiant sa décision par la crainte d’une régulation freinant l’innovation.
Le veto porté par le gouverneur californien à la bill sur la sécurité des systèmes d’intelligence artificielle, reçu comme une demi-surprise
La proposition de loi SB 1047 pour la sécurité de certains systèmes d’intelligence artificielle, présentée par le Sénateur Wiener le 7 février, a fait couler beaucoup d’encre et n’a pas créé l’unanimité au sein de la Silicon Valley puisque certains dirigeants des grandes entreprises technologiques, y compris Elon Musk, étaient pour, et d’autres comme Mark Zuckerberg ou encore Sam Altman, absolument contre. La proposition de loi avait pour objectif d’engager la responsabilité des modèles d’IA en cas de dommages graves et extrêmement graves. L’une des mesures phares de cette proposition était pour les développeurs de modèles d’IA de prévoir un système d’arrêt immédiat en cas de défaillance grave. Les principaux risques évoqués étaient la création et la prolifération d’armes de destruction de masse – y compris biochimiques et nucléaires – et de cyberattaques. Autre mesure clé de la proposition, rejoignant une approche européanisée, la responsabilité des développeurs et de certains systèmes d’IA était envisagée en cas de dommage grave causé par une IA, tels que décès ou dégâts matériels et permettait des poursuites par le procureur. Ces mesures ne verront donc pas le jour puisque le 30 septembre, le gouverneur démocrate de Californie, Gavin Newsom, a tranché : veto de la proposition de loi. Le coup porté à l’innovation était trop cher au regard des risques envisagés, la probabilité de ces risques étant elle-même sujette à débat (C. Lesnes, En Californie, bataille sur la réglementation de l’IA, lemonde.fr, 17 sept. 2024). Ce coup d’arrêt peut surprendre compte tenu du fait que la loi avait été adoptée par le Parlement californien, mais les dés n’étaient pas joués et le véto du gouverneur restait un scénario envisagé. La Californie ne sera donc pas (ou du moins pas tout de suite) l’État pionnier de régulation de l’IA aux États-Unis. Néanmoins, il ne faut pas s’y méprendre, le gouverneur de Californie n’est pas anti-régulation et encore moins lorsqu’il s’agit d’intelligence artificielle. En effet, il a signé, entre autres, une loi exigeant la présence d’un filigrane pour les images crées par des IA ou encore, l’obligation de dévoiler les sources des données ayant servi à entraîner les modèles d’IA (SB 942 et AB 2013).
Le gouverneur justifie son véto dans un communiqué nuancé, mettant en avant deux raisons : la proposition de loi mettait en péril l’innovation et était trop imparfaite dans les cas de figure envisagés pour engager la responsabilité des développeurs et modèles. Au sujet de la crainte de perte d’investissement et d’innovation, la Californie est pionnière en matière de nouvelles technologies, par les entreprises qui y sont implantées et par les instituts de recherche qui permettent de continuer d’innover et recevoir les investissements en conséquence. Une réglementation hâtive et trop restrictive aurait des conséquences lourdes pour l’État de la Silicon Valley, notamment économiquement et en termes d’attractivité.
Dans les raisons expliquant ce veto surprenant, mais attendu, le gouverneur relève que la proposition de loi visait particulièrement les modèles à grande échelle et les plus onéreux tandis que des modèles plus ciblés et à moindre coût pourraient présenter tout autant de dangerosité. En fin de compte, la bill SB 1047 était incomplète et ne prenait pas en compte suffisamment de cas de figure comme l’environnement dans lequel serait déployé le système d’IA, la prise de décision critique ou encore l’utilisation de données sensibles.
Le principal reproche fait à cette loi finalement est l’absence de cas spécifique, condamnant tout modèle d’IA correspondant au critère d’échelle et de coût, rendant dès lors dissuasif tout investissement important pouvant mener à de nouvelles innovations. Le gouverneur se veut tout de même rassurant, indiquant que ce revers législatif n’est pas synonyme de désintérêt ni d’impunité. En effet, la prudence est de mise pour la réglementation de la responsabilité de ces « nouveaux » acteurs, cherchant un équilibre solide entre innovation et encadrement.
L’exemple californien n’est pas en reste puisqu’il souligne un débat qui fait rage jusque dans l’Union européenne : comment réguler l’intelligence artificielle sans freiner l’innovation ? L’Union européenne a d’ores et déjà tranché en faveur d’un règlement régulant l’intelligence artificielle et la responsabilité associée à celle-ci avec l’adoption de la nouvelle directive sur la responsabilité du fait des produits défectueux. Ajoutées aux récents actes adoptés, le paysage législatif du numérique en Europe devient assez complexe à naviguer, la question – si ce n’est la forte inquiétude – sous-jacente est celle de la régulation comme frein à l’innovation soulevée par acteurs publics et privés.
L’innovation, essentielle à la compétitivité, met l’Europe à la traîne
Il est intéressant de voir que la Californie fait le choix de la retenue de régulation et d’envisager de nouvelles propositions, Gavin Newsom indiquant avoir reçu plusieurs propositions de loi avant la SB 1407. Cette frilosité de légiférer sur la responsabilité des développeurs et systèmes d’IA présentant des risques majeurs au profit de l’innovation ne fait pas partie du paysage européen, néanmoins la crainte d’une régulation faisant fuir investissement et innovation, n’est pas en reste au sein de l’Union européenne. On peut notamment penser aux négociations portées par la France durant les discussions au sujet du règlement sur l’intelligence artificielle (A. Piquard, Intelligence artificielle : le règlement européen menacé par le blocage des négociations, lemonde.fr, 17 nov. 2023). Plus récemment toutefois, le rapport sur le futur de la compétitivité européenne présenté par Mario Draghi le mois dernier (EU competitiveness : Looking ahead – European Commission, sept. 2024) traite de cette question. Le manque de compétitivité de l’Union européenne en matière de nouvelles technologies y est largement pointé du doigt et le constat sans appel : « Seulement quatre du top 50 des entreprises tech du monde sont européennes ». Le rapport est sévère, indiquant que l’Union a déjà raté le tournant internet, capté par les États-Unis et la Chine, sans en prendre les conséquences le tournant intelligence artificielle pourrait prendre le même chemin. Parmi les explications sur les raisons de ce « retard » européen, la recherche et l’innovation sont largement visées ne serait-ce qu’en termes d’investissements financiers puisque l’Union européenne dépense 270 milliards de moins que les États-Unis dans ce domaine. Le manque d’investissement n’est toutefois pas la cause unique au manque d’innovation, la régulation y joue également une part importante. Pour une réponse européenne à la course à l’innovation et la compétitivité, coordination et réduction du « fardeau réglementaire » sont maîtres. En effet, la combinaison d’un marché réellement unique associé à une réglementation simplifiée, car moins fractionnée et réellement harmonisée permettrait d’accroître l’attractivité. Le volet réglementaire est critiqué à trois égards par le rapport. Premièrement, les procédures fragmentées et complexes à travers les différents États membres sont dissuasives pour de jeunes entreprises souhaitant démarrer dans le domaine ; deuxièmement, le nombre de législations dirigées vers l’encadrement des technologies entrave l’innovation, car trop nombreuses et parfois déjà à la traîne au regard de l’état de l’art de certaines technologies. Troisièmement, les entreprises digitales peuvent être dissuadées d’embaucher des sous-traitants européens à cause de la transposition et l’application fragmentées des règlements et directives européens. Enfin, le coût de la mise en conformité diminue le budget pouvant être alloué à la recherche et l’innovation.
Si l’une des justifications du veto porté par le gouverneur californien est justement l’innovation et la recherche par les universités, c’est également une des mesures mises en avant par le rapport Draghi soulignant qu’il est « essentiel d’établir et consolider les institutions académiques européennes au premier plan de la recherche mondiale » en combinaison avec la nécessité de rendre plus simples les investissements et faciliter la capitalisation des entreprises innovantes.
M. Draghi n’est pas le seul à tirer la sonnette d’alarme quant à l’équilibre entre innovation et régulation puisque la Commission européenne a publié une note d’orientation sur la concurrence en matière d’intelligence artificielle et les difficultés liées à l’innovation, notamment par un marché dominé par les grandes entreprises américaines (K. Kowalski, C. Volpin et Z. Zombori, Competition in Generative AI and Virtual Worlds, Competition policy brief, n° 3, sept. 2024). Concomitamment, plusieurs entreprises d’intelligence artificielle – dont Meta, Prada et Ericsson – ont publié une lettre ouverte à l’Union européenne (Ensuring AI innovation in Europe : Open letter to EU policymakers) appelant d’une part à une meilleure harmonisation de la législation existante et d’autre part à un changement de cap. En effet, le risque est que l’Europe soit pionnière en réglementation des nouvelles technologies, mais reste coincée dans ce rôle, ne prenant pas les devants en investissant massivement dans l’IA pour permettre une réelle chance à l’innovation européenne (C. Séramour, IA générative : L’Europe à un point de bascule entre surrèglementation et volonté d’innover, usine-digitale.fr, 20 sept. 2024).
Lefebvre Dalloz