Ces 78 recommandations des deux députés à l’origine de la loi « Influenceurs » pour mieux lutter contre les dérives du numérique

La mission de six mois, demandée par le Premier ministre, vient d’aboutir avec la publication d’un rapport de 141 pages.

Sans surprise, il reste pour le législateur encore bien des angles morts autour de la régulation des influenceurs et des réseaux sociaux, un domaine dont les dérives sont régulièrement dénoncées. Plus de deux ans après la promulgation de la loi n° 2023-451 du 9 juin 2023 visant à encadrer l’influence commerciale et à lutter contre les dérives des influenceurs sur les réseaux sociaux, un texte qu’ils avaient alors porté à l’Assemblée nationale, le député Arthur Delaporte (Socialistes et apparentés) et l’ex-député Stéphane Vojetta (Ensemble pour la République), viennent de rendre au Premier ministre un touffu rapport de 141 pages sur ce sujet.

À l’issue de leur réflexion – la mission, qui a débuté en juillet 2025, a duré six mois –, ils proposent 78 recommandations pour « faire appliquer le droit existant, combler les angles morts de la régulation et garantir que l’espace numérique reste compatible avec la protection des citoyens, l’équité économique et le respect des libertés fondamentales ».

En effet, s’ils défendent le bilan de leur loi – « jugé globalement positif », « de nouvelles pratiques à risque émergent sur les plateformes de réseaux sociaux », avertissent-ils. Et de citer « les mécanismes de dons et de gamification » (ludification) exposant les utilisateurs du réseau social TikTok « à des comportements addictifs », « la vente de produits de contrefaçon ou dangereux » ou encore « les failles dans la protection des mineurs ».

Convention judiciaire d’intérêt public numérique

Dans le détail, les deux auteurs proposent notamment cinq recommandations pour renforcer spécifiquement « la réponse pénale et sécuriser le cadre législatif ». Ils appellent ainsi à préciser le délit dit de plateforme (C. pén., art. 323-3-2), en indiquant que cette infraction « comporte la diffusion de contenus manifestement illicites ».

De même, pour permettre la mise en place d’« une véritable culture de conformité », les auteurs plaident pour « la création d’une convention judiciaire d’intérêt public dédiée au champ numérique ». Cette dernière « permettrait au procureur, avant toute action publique, de proposer à une entreprise mise en cause pour des infractions liées aux systèmes de traitement automatisé de données une mise en conformité encadrée, accompagnée d’une amende proportionnée ». Ce mécanisme « offrirait un levier puissant pour exiger des plateformes une transparence accrue sur leurs algorithmes, une détection renforcée des risques, une modération plus efficace et, plus largement, une réorganisation profonde de leurs processus lorsqu’ils participent à la diffusion de contenus dangereux ou illicites », estiment-ils.

Faute de création d’un parquet national cyber, une piste à laquelle les auteurs ne souscrivent pas, ces derniers suggèrent d’ouvrir une possibilité d’une cosaisine entre la section J3 à compétence nationale du parquet de Paris et les parquets locaux, « comme cela existe déjà avec les parquets nationaux spécialisés ». Outre cette recherche d’une meilleure coordination, il faut « poursuivre les efforts de renforcement des effectifs, de formation et de moyens associés des services de justice, de police et de gendarmerie dans la lutte contre la cybercriminalité », rappellent-ils.

Enfin, les deux auteurs plaident pour un renforcement des « moyens d’agir en justice pour lutter contre la haine en ligne » en définissant « plus clairement le dommage » visé par l’article 6-3 de la loi pour la confiance dans l’économie numérique. Et ce, « afin d’éviter toute assimilation automatique à une infraction de presse ». « Il faudrait également réouvrir explicitement la possibilité de référé et la requête contre les hébergeurs lorsque seule une mesure provisoire permet d’enrayer l’atteinte, en particulier lorsque l’auteur est anonyme », précisent-ils.

DSA et DFA

De manière générale, le rapport préconise « un certain nombre de pistes de régulation face à la croissance des plateformes de contenus pour adultes à la demande » ou propose des solutions pour « mieux réprimer (…) la progression observée des discours masculinistes violents ». De même, les auteurs suggèrent des mesures « pour mieux structurer la filière de la création de contenus ».

En France, ils plaident également « pour une montée en puissance rapide des outils à disposition de l’État », tandis qu’à l’échelle européenne « l’effectivité du Digital Services Act (DSA) doit être consolidée », l’Hexagone étant appelé « à jouer un rôle moteur dans la construction du Digital Fairness Act » (DFA). Dans le cadre du DSA, les deux auteurs veulent notamment mettre la pression sur les plateformes pour qu’elles revoient « leur système de modération en dédiant une part significative de leur chiffre d’affaires au recrutement d’un nombre de modérateurs suffisant ». Pour le DFA, dont une entrée en vigueur est attendue au mieux en 2028, destiné à « cibler les pratiques déloyales », des pièges d’interface au marketing trompeur des influenceurs, « il sera important de s’assurer » que ce nouveau texte « n’impose pas à la France des règles moins-disantes par rapport au standard de la loi du 9 juin 2023 ». 

 

par Gabriel Thierry, Journaliste

© Lefebvre Dalloz