Panorama rapide de l’actualité « Numérique » de la semaine du 17 novembre 2025

Sélection de l’actualité « Numérique » marquante de la semaine du 17 novembre.

IA

Ambition européenne d’une justice numérique à l’horizon 2030

  • Avec DigitalJustice@2030, la Commission européenne trace une feuille de route résolument ambitieuse : faire de la justice numérique un pilier de compétitivité et de cohésion au sein de l’Union. À l’horizon 2030, l’objectif est clair : des systèmes judiciaires entièrement digitalisés, interconnectés et accessibles en ligne pour tous.
    Cette vision repose sur plusieurs transformations majeures. D’abord, permettre à chaque citoyen comme à chaque professionnel du droit d’accéder aux juridictions, de participer aux audiences et de suivre les procédures à distance grâce à des infrastructures nationales harmonisées. Ensuite, garantir un accès universel à la législation et à la jurisprudence européennes et nationales, grâce au European Legal Data Space et à la généralisation des identifiants ELI/ECLI.
    La stratégie place également l’intelligence artificielle au cœur de la modernisation, avec une adoption large mais strictement encadrée par l’AI Act : l’IA doit soutenir le travail des juridictions, sans jamais se substituer au juge. Enfin, la Commission ambitionne de fluidifier l’ensemble des procédures transfrontières, afin qu’elles puissent être intégralement conduites par voie numérique, réduisant ainsi délais, coûts et contraintes pratiques.
    Cette transformation promet une justice plus efficace, plus économique et plus accessible. Mais son succès repose, selon la Commssion sur un facteur déterminant : la coopération volontaire et continue des États membres. Sans cet engagement, nous dit la Commission, aucune modernisation numérique harmonisée ne pourra véritablement voir le jour : l’avenir de la justice européenne se jouera donc autant dans la technologie que dans la capacité collective à la déployer. (Commission européenne, DigitalJustice@2030, Brussels, 20.11.2025, COM(2025) 802 final)

IA : la Cour des comptes appelle à un changement d’échelle de la stratégie nationale

  • Le 19 novembre 2025, la Cour des comptes a publié son rapport « La stratégie nationale pour l’intelligence artificielle : consolider les succès de la politique publique de l’IA, élargir son champ ». Elle y dresse un bilan globalement contrasté de la stratégie lancée en 2018 et déployée en trois phases.
    La première phase (2018-2022) a permis de structurer une politique publique de l’IA, de renforcer la recherche, de créer des pôles d’excellence et de soutenir l’écosystème naissant. Mais elle n’a couvert qu’une partie des enjeux identifiés, laissant en retrait la formation et l’accompagnement économique, sur fond de gouvernance éclatée et de suivi budgétaire insuffisant.
    La deuxième phase (2023-2025), centrée sur la diffusion de l’IA dans l’économie, a été lancée sans évaluation préalable et a dû être réajustée face à l’explosion de l’IA générative. Malgré des retards persistants — notamment dans la transformation des administrations et le soutien aux entreprises — elle a contribué à renforcer l’attractivité de la France et à dynamiser la création de startups.
    La troisième phase, engagée depuis 2025, vise désormais un changement d’échelle : diffuser massivement l’IA dans les entreprises. Pour réussir, la Cour insiste sur plusieurs conditions : un pilotage interministériel renforcé, une meilleure articulation avec l’Union européenne, une évaluation approfondie des phases précédentes et la consolidation des premiers succès, notamment en matière de calcul intensif et de transfert vers l’industrie.
    Enfin, la Cour formule dix recommandations structurantes : renforcer la gouvernance, investir durablement dans la formation et la recherche, accroître les capacités de calcul en lien avec l’UE, accompagner les entreprises, anticiper les mutations du marché du travail, améliorer l’accès aux données et accélérer la transformation des administrations par l’innovation publique. Autant de leviers indispensables pour permettre à la politique d’IA française de changer véritablement d’échelle. (Cour des comptes La stratégie nationale pour l’intelligence artificielle - Consolider les succès de la politique publique de l’IA, élargir son champ - nov. 2025)

Données personnelles

Présentation du premier paquet de simplification des lois européennes sur le numérique, le 19 novembre

  • L’Union européenne veut se doter d’un cadre numérique plus lisible et plus efficace : telle est l’ambition du nouveau paquet « omnibus » présenté le 19 novembre 2025. Avec ce texte, la Commission entend simplifier un environnement réglementaire devenu dense, tout en préservant un haut niveau de protection des droits fondamentaux (V. M. Clement-Fontaine, La rationalisation du droit numérique européen : le rapport parlementaire sur l’AI Act, prélude aux règlements Digital Omnibus et Omnibus IA » Dalloz actualité, 14 nov. 2025).
    Sur l’intelligence artificielle, elle propose des ajustements ciblés du règlement IA : report de l’application des obligations pesant sur les systèmes à haut risque pour permettre l’élaboration des normes techniques, renforcement du futur Bureau européen de l’IA, ouverture élargie des bacs à sable et recentralisation de la supervision des modèles d’IA à usage général.
    En matière de données, la Commission vise un double objectif : améliorer l’accès et la réutilisation, tout en clarifiant les obligations des acteurs. Les modifications du RGPD restent limitées et visent surtout à préciser des notions ou alléger certaines procédures. Le projet simplifie aussi le cadre applicable aux données non personnelles, tout en facilitant la portabilité et le changement de fournisseur cloud, avec des aménagements spécifiques pour les PME.
    Côté cybersécurité, un guichet unique de notification des incidents remplacera la mosaïque actuelle de régimes sectoriels. La stratégie prévoit également des laboratoires de données, un service d’assistance juridique et de nouveaux outils de prévention des fuites de données sensibles.
    Enfin, la Commission propose un portefeuille européen d’identité numérique pour les entreprises et organismes publics, destiné à sécuriser signatures, échanges et conservation de documents dans l’espace européen.
    Selon l’évaluation initiale, ces mesures pourraient générer jusqu’à 5 milliards d’euros d’économies administratives d’ici 2029, et 150 milliards supplémentaires grâce aux portefeuilles numériques. Le paquet est désormais soumis à la procédure législative, tandis qu’une consultation publique sur la cohérence du cadre numérique est ouverte jusqu’en mars 2026.

Adoption à l’unanimité de l’avis du CEPD concernant le projet de décision d’adéquation de la Commission européenne pour le Brésil

  • Le 4 novembre 2025, le Comité européen de la protection des données (CEPD) a adopté à l’unanimité son avis sur le projet de décision d’adéquation de la Commission européenne concernant le Brésil. Cet avis intervient à la suite de la demande de consultation adressée par la Commission le 5 septembre 2025 et vise à apprécier si l’ordre juridique brésilien en matière de protection des données offre un niveau de garanties substantiellement équivalent à celui assuré par le droit de l’Union européenne, en particulier le RGPD.
    Conformément à l’article 45 du RGPD, un transfert de données personnelles vers un pays tiers n’est possible que si la Commission constate, par décision, que ce pays assure un niveau de protection adéquat. Dans ce cadre, le CEPD a examiné le projet de décision, la loi générale brésilienne sur la protection des données (LGPD), en vigueur depuis le 18 septembre 2020, ainsi que les règlements et orientations adoptés par l’Autorité nationale de protection des données (ANPD).
    Le CEPD relève que la LGPD repose sur des principes proches de ceux du RGPD, licéité, finalité, transparence, sécurité, responsabilité, et consacre des droits substantiels des personnes concernées, notamment l’accès, la rectification, l’effacement ou la portabilité. Le régime brésilien prévoit également des obligations organisationnelles, telles que la tenue de registres de traitement ou la désignation d’un responsable de la protection des données, complétées par des normes de sécurité et des règles encadrant les transferts internationaux adoptées par l’ANPD. Le CEPD observe ainsi une convergence notable avec les exigences du droit de l’Union européenne et la jurisprudence de la Cour de justice.
    L’avis identifie néanmoins plusieurs aspects nécessitant des clarifications ou un suivi renforcé. Parmi eux figurent le régime des analyses d’impact pour les traitements à risque élevé, la portée des limitations à la transparence fondées sur le « secret commercial et industriel », et les conditions applicable aux transferts ultérieurs de données depuis le Brésil. Le CEPD invite la Commission à préciser les conséquences possibles de ces limitations sur le droit à l’information et sur les pouvoirs de contrôle de l’ANPD, ainsi qu’à rappeler la nécessité d’une information effective des personnes lorsque les transferts reposent sur le consentement.
    S’agissant de l’accès des autorités publiques brésiliennes aux données personnelles, le CEPD note que la LGPD exclut en principe les traitements réalisés exclusivement à des fins de sécurité publique, de défense nationale ou de poursuites pénales. Toutefois, la jurisprudence du Tribunal suprême fédéral a étendu l’application de certaines garanties de la LGPD aux enquêtes pénales et au maintien de l’ordre. Le CEPD demande dès lors à la Commission de clarifier la portée de ces garanties, notamment quant aux pouvoirs de l’ANPD à l’égard des autorités répressives.
    Enfin, le CEPD insiste sur la nécessité d’un suivi régulier de la décision d’adéquation. Une fois adoptée, la Commission restera tenue de vérifier périodiquement que le Brésil maintient un niveau de protection substantiellement équivalent à celui garanti dans l’Union européenne.

Oui, les services de police peuvent, à certaines conditions, conserver des données biométriques et génétiques : 

  • Par un arrêt du 20 novembre 2025, la CJUE s’est prononcée sur la conformité, au regard de la directive 2016/680, de la collecte et de la conservation des données biométriques et génétiques de personnes poursuivies ou simplement soupçonnées d’infractions intentionnelles.
    L’affaire concernait un fonctionnaire tchèque ayant fait l’objet, malgré son opposition, de divers prélèvements (empreintes digitales, profil ADN, photographies) lors de poursuites pénales engagées en 2015. Après sa condamnation, il avait obtenu en 2022 l’effacement de ses données, décision contre laquelle la police tchèque a formé pourvoi, conduisant la Cour administrative suprême à saisir la CJUE.
    Trois questions étaient posées : la directive permet-elle une collecte indifférenciée pour toutes les personnes poursuivies ou soupçonnées ? Autorise-t-elle une conservation sans durée maximale ? La jurisprudence nationale peut-elle constituer le « droit d’un État membre » légitimant le traitement de données sensibles ?
    La CJUE répond de manière nuancée. Elle admet, d’abord, qu’une réglementation nationale peut prévoir une collecte indifférenciée, à condition que cette collecte soit strictement nécessaire aux finalités poursuivies et que les exigences renforcées applicables aux données sensibles soient respectées. Ensuite, elle estime qu’une absence de durée maximale de conservation n’est pas, en soi, contraire à la directive, dès lors que la loi impose des vérifications périodiques permettant d’apprécier la nécessité absolue de maintenir les données. Enfin, la Cour confirme que la notion de « droit d’un État membre » inclut la jurisprudence nationale, dès lors qu’elle est suffisamment accessible et prévisible.
    Cet arrêt, qui combine souplesse et exigences de nécessité stricte, confirme la marge d’appréciation des États membres en matière de traitement de données sensibles à des fins pénales. (CJUE, 20 nov. 2025, C-57/23)

DSA

La commission européenne souligne une nouvelle fois la complexité croissante du paysage réglementaire européen

  • Le 17 novembre 2025, la Commission européenne a publié son premier rapport d’ensemble sur l’application de l’article 33 du Digital Services Act (DSA) et sur son articulation avec les autres textes de l’Union relatifs aux services numériques. Cette évaluation vise à mesurer la cohérence globale du cadre juridique depuis l’entrée en vigueur du DSA.
    Le DSA établit un régime horizontal harmonisé pour les services intermédiaires, garantissant sécurité juridique, protection des utilisateurs et respect des droits fondamentaux, sans toutefois définir lui-même les contenus illicites, renvoyés à d’autres instruments européens ou nationaux.
    La Commission recense cinquante-quatre actes européens interagissant avec le DSA. Si la plupart sont complémentaires, certains comportent des exigences parallèles ou plus strictes, créant des risques de cumul et d’incertitude juridique. Le rapport met en lumière plusieurs sources d’incohérence, notamment l’absence d’alignement des exemptions applicables aux petites entreprises entre le DSA, la directive SMA ou le règlement sur les contenus terroristes, ainsi que des divergences structurelles — comme l’opposition entre le principe du pays d’origine du DSA et le principe du pays de destination appliqué au titre de la sécurité générale des produits — susceptibles d’engendrer des procédures concurrentes.
    Enfin, la Commission avertit qu’elle surveillera étroitement les initiatives nationales risquant d’introduire des obligations additionnelles pour les services intermédiaires. Elle rappelle sa volonté d’utiliser ses pouvoirs d’exécution pour garantir l’uniformité du droit de l’Union, prévenir les doubles poursuites et préserver l’harmonisation du marché intérieur numérique. (54 actes interagissent avec le DSA: Report on application of Article 33 of Regulation (EU) 2022/2065 (DSA) and the interaction of that Regulation with other legal acts du 17 nov. 2025)

Rejet du recours d’Amazon contre la décision de la Commission désignant la plateforme Amazon Store comme une « très grande plateforme en ligne » (DSA)

  • Le 19 novembre 2025, le Tribunal de l’Union européenne a rejeté le recours introduit par Amazon EU SARL contre la décision de la Commission européenne désignant Amazon Store comme « très grande plateforme en ligne » au sens de l’article 33 du Digital Services Act (DSA).
    Le Tribunal rappelle que le DSA instaure un régime spécifique applicable aux plateformes atteignant un nombre moyen mensuel supérieur à 45 millions d’utilisateurs dans l’Union européenne, seuil que la Commission avait constaté pour Amazon Store. Cette qualification emporte l’application d’obligations renforcées visant la gestion des risques systémiques, la transparence accrue et la protection des destinataires du service.
    Parmi ces obligations figurent notamment la mise en place d’un système de recommandation non fondé sur le profilage, la tenue d’un registre public des publicités, ainsi que la communication de données pertinentes aux chercheurs qualifiés au titre de la législation sur les services numériques. Ces obligations s’inscrivent dans un cadre de régulation préventive visant à garantir un environnement en ligne plus sûr et plus transparent.
    Amazon soutenait que l’article 33 du DSA portait atteinte à plusieurs droits fondamentaux, dont la liberté d’entreprise, le droit de propriété, le principe d’égalité, la liberté d’expression et le droit au respect de la vie privée. Elle contestait également la légalité même du seuil quantitatif retenu par le législateur.
    Le Tribunal considère que les contraintes issues du DSA, bien qu’elles puissent constituer des ingérences dans les droits invoqués, poursuivent des objectifs d’intérêt général d’une importance particulière, tenant notamment à la protection des consommateurs et à la limitation des risques systémiques liés aux très grandes plateformes. Il juge que ces ingérences sont proportionnées, dès lors que les obligations imposées demeurent ciblées, structurées et entourées de garanties procédurales.
    Enfin, le Tribunal estime que le seuil de 45 millions d’utilisateurs relève de la marge d’appréciation du législateur de l’Union européenne et qu’il ne peut être regardé comme arbitraire ou manifestement inadapté au regard des objectifs du DSA.
    En conséquence, le recours est intégralement rejeté et la désignation d’Amazon Store comme très grande plateforme en ligne est confirmée. (TUE, 19 nov. 2025, C 57/23)

Plateformes

Définition du marché pertinent : le juge fédéral déboute la FTC dans l’affaire Meta

  • Le 18 novembre 2025, le juge fédéral James E. Boasberg (U.S. District Court for the District of Columbia) a rejeté l’action intentée par la Federal Trade Commission (FTC) contre Meta Platforms Inc. L’autorité américaine sollicitait l’annulation des acquisitions d’Instagram (2012) et de WhatsApp (2014), estimant qu’elles avaient renforcé un monopole illégal sur le marché des réseaux sociaux personnels.
    La démarche de la FTC posait une question délicate : peut-on remettre en cause, plus d’une décennie après leur conclusion, des opérations de concentration initialement laissées sans intervention ? En effet, ce n’est qu’en 2020 que la FTC a engagé sa procédure, reprochant à Meta d’avoir éliminé des concurrents comme Snapchat ou MeWe dans le segment de la communication personnelle en ligne.
    Meta a contesté la définition du marché pertinent, arguant que la concurrence ne se limite pas aux services strictement sociaux : YouTube et TikTok exercent également une pression concurrentielle directe. L’entreprise a notamment rappelé l’investissement massif — près de 4 milliards de dollars — consacré au développement de la fonctionnalité Reels pour répondre à la montée en puissance de ces acteurs. Elle a également défendu la légitimité des acquisitions de start-ups comme vecteur d’innovation, dès lors qu’elles ne réduisent pas le choix des utilisateurs ni n’éliminent de rivaux significatifs.
    Le juge Boasberg a suivi cette analyse, retenant une définition du marché plus large que celle de la FTC. En intégrant YouTube et TikTok aux côtés de Snapchat ou MeWe, il a estimé que les plateformes numériques fonctionnent dans un environnement dynamique où les frontières concurrentielles sont mouvantes et la substitution rapide. Cette décision souligne la difficulté, pour les autorités antitrust, de circonscrire de manière stable le marché des services numériques multiservices.
    La FTC a exprimé ses réserves quant à l’impartialité du magistrat, invoquant son passé institutionnel et la procédure de destitution en cours. Reste que cette décision constitue une victoire majeure pour les géants technologiques, alors que plusieurs procédures antitrust sont parallèlement engagées contre Amazon, Google ou Apple. Pour l’administration Trump, qui a fait de la régulation des grandes plateformes un axe prioritaire, il s’agit au contraire d’un revers important dans sa tentative de redéfinir les limites du pouvoir de marché dans l’économie numérique. (U.S. District Court for the District of Columbia, 18 novembre 2025, (source : Reuters))

Google Shopping : nouvelle condamnation fondée sur la discrimination algorithmique

  • Le tribunal régional de Berlin a condamné, le 14 novembre 2025, Google à indemniser Idealo et Producto pour avoir, de 2008 à 2023, abusé de la position dominante conférée par son moteur de recherche afin de favoriser son service Google Shopping. Le tribunal retient que Google a déterminé et organisé l’accès à la visibilité en orientant structurellement le trafic vers son propre service de comparaison, ce qui a mécaniquement réduit l’exposition commerciale de ses concurrents. Cette analyse s’inscrit dans la continuité de la décision de la Commission européenne de 2017, confirmée par les juridictions de l’Union européenne, ayant déjà sanctionné le caractère discriminatoire du traitement réservé par Google Shopping dans les pages de résultats.
    Devant les juridictions allemandes, l’enjeu n’était plus de qualifier l’abus, déjà établi au niveau européen, mais d’évaluer le préjudice réellement subi par les comparateurs de prix du fait de la réduction artificielle de leur visibilité sur le marché. Le tribunal de Berlin retient l’existence d’un dommage indemnisable pour chaque société demanderesse, tout en limitant les montants alloués par rapport aux sommes réclamées, en raison des incertitudes propres à la reconstitution d’un chiffre d’affaires hypothétique dans un marché dépendant de la visibilité en ligne.
    L’affaire met en lumière les spécificités concurrentielles des plateformes-intermédiaires : lorsqu’un acteur contrôle à la fois un service d’intermédiation essentiel et un service concurrent sur le marché aval, toute modification du classement, des modalités d’affichage ou des mécanismes d’accès peut produire un effet d’éviction sans nécessiter d’exclusion formelle. Le comportement discriminatoire repose ici sur l’architecture même de l’interface et le paramétrage des unités d’affichage, lesquels ont permis à Google de privilégier son propre service sous couvert d’un système d’enchères dont l’apparente neutralité ne suffisait pas à rétablir l’égalité de traitement.
    Si Google invoque les ajustements apportés à partir de 2017 pour justifier l’évolution de son dispositif, le tribunal considère que ces modifications ne font pas disparaître les effets des pratiques antérieures ni la nécessité d’indemniser les dommages nés avant leur mise en œuvre. La décision consacre ainsi la possibilité, pour les concurrents, d’obtenir réparation devant les juridictions nationales à la suite d’une décision administrative européenne, renforçant l’effectivité du droit de la concurrence dans l’environnement des services numériques. Elle rappelle surtout qu’un opérateur en situation de contrôle structurel d’un accès au marché ne peut combiner ce rôle avec une gestion discriminatoire de son propre service sans engager sa responsabilité pour abus. (Trib. régional de Berlin du 14 nov. 2025, source : Reuters)

 

© Lefebvre Dalloz