Premières victoires dans la lutte contre le design addictif des réseaux sociaux

Alors que la proposition de loi visant à interdire leur utilisation au moins de quinze ans suscite la discussion en France, les réseaux sociaux font face à différentes attaques qui font mouche des deux côtés de l’Atlantique. En cause les dangers que fait courir leur conception : le design addictif.

Qu’est-ce que le design addictif ? Le design addictif, qui n’est pas un terme juridique, est souvent présenté comme un type spécifique de dark pattern, c’est-à-dire une technique de conception d’interface visant à influencer le comportement des utilisateurs dans l’intérêt du fournisseur (v. DSA, consid. 67, évoquant les choix de conception abusifs destinés à amener le destinataire à exécuter des actions qui profitent au fournisseur de plateformes en ligne). Plus largement le design addictif correspond à la combinaison de la conception du service, des données des utilisateurs et des systèmes algorithmiques, combinaison qui vise à faire interagir l’utilisateur avec le service le plus longtemps possible. Le défilement infini, la lecture automatique, les notifications push, conjugués au traitement algorithmique permettent d’identifier les contenus qui intéressent l’utilisateur. Celui-ci est finalement « récompensé » par l’obtention de like ou par l’apparition d’un contenu l’intéressant. Concrètement, l’utilisateur fait défiler du contenu sans pouvoir prévoir le moment où il obtiendra ladite récompense et cette incertitude est à l’origine de l’addiction.

Le design addictif joue un rôle clé dans le modèle économique des réseaux sociaux puisque les revenus des réseaux sociaux ne proviennent pas des paiements effectués directement par les utilisateurs mais de la vente d’espaces publicitaires. L’attention des utilisateurs est le carburant de ce modèle : plus les utilisateurs restent engagés, plus la plateforme peut diffuser de publicité et collecter leurs données comportementales, plus la publicité ciblée est valorisée.

Le design addictif et les risques pour la santé mentale. Le lien entre design addictif et risque pour la santé mentale fait l’objet de nombreuses recherches (v. réc., IHS, ADDICT. Addictive Design in Digital Consumer Technologies ; v. aussi, Rapport de la commission d’enquête de l’Assemblée nationale sur les effets psychologiques de TikTok sur les mineurs, Rapport n° 1770, 4 sept. 2025, sur lequel v. G. Denner et S. Vergnolle, Chaire sur la modération des contenus, CNAM, sept. 2025 ; Adde, Amnesty international, Plongée dans l’algorithme de TikTok France : nos révélations, 20 oct. 2025). L’heure de la sanction semble avoir sonné. Plusieurs procédures en attestent.

Condamnation de Meta et de Google aux États-Unis : la voie du private enforcement. De multiples procédures sont en cours outre-Atlantique. Il s’agit parfois de procédures individuelles, parfois de procédures collectives. Les entreprises se défendent en invoquant la liberté d’expression et une protection fédérale, résultant de la section 230 du Communications Decency Act de 1996, qui écarte leur responsabilité quant aux contenus publiés par les utilisateurs. Mais cette protection est étrangère à la conception du réseau, ce qui explique que différents réseaux aient préféré conclure des accords amiables. D’autres, Meta et Google, ont refusé d’emprunter la voie de l’amiable. Ils viennent d’être condamnés. La Cour supérieure de Californie du comté de Los Angeles les a, en effet, condamnés le 25 mars 2026 pour atteinte au bien-être d’une utilisatrice. Ils devront lui verser 6 millions de dollars de dommages-intérêts punitifs (4,2 millions de dollars pour Meta, au titre d’Instagram et de Facebook, et 1,8 million de dollars pour Google en raison de son activité YouTube). Le fait générateur réside dans les fonctionnalités addictives (défilement infini, recommandations algorithmiques, …) alors que le préjudice est constitué par des troubles de santé mentale (anxiété et dépression, dysmorphie corporelle et pensées d’automutilation). L’utilisatrice, aujourd’hui majeure, reprochait aux deux géants des réseaux sociaux, qu’elle avait commencé à utiliser dès l’âge de six ans, de créer des produits aussi addictifs que les cigarettes ou les casinos en ligne et de dissimuler les dangers de leur activité. Restait la question du lien de causalité. Le mal-être résulte-t-il des réseaux sociaux ? Dans l’affaire californienne, et cela a sans doute été déterminant, l’un des avocats de la plaignante a présenté au jury dès les plaidoiries d’ouverture des documents internes de Meta et YouTube montrant que lesdites entreprises avaient connaissance des effets négatifs de leurs produits sur les enfants et en avaient discuté. Le parallèle avec les procédures engagées jadis contre les fabricants de cigarettes est intéressant. Pour mémoire, Philip Morris et R.J. Reynolds avaient, en 1998, conclu un accord global de 206 milliards de dollars avec plus de quarante États, qui les engageaient à cesser la vente de cigarettes aux mineurs. Les États sont ensuite intervenus en adoptant une réglementation stricte. L’issue sera-t-elle la même pour les réseaux sociaux ?

Condamnation de Meta au Nouveau-Mexique : la voie pénale. Un tribunal de Santa Fe a condamné Meta le 24 mars 2026 après l’avoir déclaré coupable de mise en danger de mineurs (not., en facilitant leur exploitation sexuelle). Meta doit verser 375 millions de dollars de sanctions civiles (la sanction maximale sur le fondement de l’Unfair Practices Act). Le procès avait été engagé par le bureau du procureur général de l’État en décembre 2023 à la suite d’une enquête menée par le quotidien The Guardian démontrant que Facebook et Instagram étaient devenus des places de marché pour le trafic sexuel d’enfants. Ici aussi, la défense fondée sur la section 230 du Communications Decency Act est restée vaine, le débat se portant sur la conception du service. Le tribunal a pu s’appuyer sur des documents internes de Meta et des témoignages révélant que Meta avait été alerté des risques tant par ses salariés que par des spécialistes de la protection de l’enfance. Il a également considéré que Meta avait bloqué l’accès aux preuves des crimes de pédopornographie. Au-delà de la condamnation au paiement de sanctions civiles, le tribunal exige que la conception des réseaux soit revue (procédure de vérification d’âge, refus d’accès aux prédateurs). Cette affaire, qui ne concerne certes pas directement le design addictif, démontre l’efficacité de la voie pénale à l’encontre des réseaux sociaux.

Dans l’Union européenne, mise en œuvre du Digital Services Act (DSA) via le public enforcement. Le design addictif est désormais dans le viseur de la Commission européenne comme le montrent les procédures formelles initiées par la Commission à l’encontre de TikTok, Facebook et Instagram début 2024 et de Shein en février 2026 et qui pour partie s’attaque au design addictif (comp. avec la procédure formelle engagée le 26 mars 2026 contre Snapchat qui concerne le risque d’exploitation sexuelle, la vente de produits illégaux…).

Pertinence du DSA au regard du design addictif. Dans le cadre du DSA, le design addictif peut être qualifié de « risque systémique » : il s’agit de risque pour la santé publique, les mineurs et le bien-être physique et mental des utilisateurs (v. en ce sens, le consid. 83, mais aussi la résolution du 12 déc. 2023 du Parlement européen sur la conception addictive des services en ligne et la protection des consommateurs sur le marché unique de l’UE [2023/2043(INI)]). Or, l’article 25 du DSA, consacré à la conception et l’organisation des interfaces en ligne, interdit celles qui visent à tromper ou à manipuler les utilisateurs ou à altérer de façon significative leur capacité à prendre des décisions libres et informées. Par ailleurs, les articles 34 et 35 qui s’appliquent aux très grandes plateformes exigent que ces fournisseurs identifient les risques systémiques et adoptent des mesures d’atténuation appropriées, efficaces et proportionnées.

Conclusions préliminaires sur TikTok. La Commission a publié le 6 février 2026 ses conclusions intermédiaires. Elle considère que TikTok n’a pas évalué de manière adéquate la façon dont les fonctionnalités addictives nuisent au bien-être physique et mental de ses utilisateurs, y compris des mineurs et des adultes vulnérables. TikTok aurait ignoré des indicateurs importants d’un usage compulsif de l’application, tels que le temps passé par les mineurs sur le réseau pendant la nuit, la fréquence d’ouverture de l’application et d’autres signaux comportementaux pertinents. La Commission en conclut (à titre préliminaire) que TikTok ne respecte pas les articles 34 et 35 du DSA et qu’elle « semble échouer à mettre en œuvre des mesures raisonnables, proportionnées et efficaces pour atténuer les risques découlant de son design addictif ». Et pour cause, ces mesures sont difficilement compatibles avec le modèle économique de TikTok. Il doit être remarqué que si la plupart des rapports d’évaluation établis par les réseaux sociaux (dont la publication est rendue obligatoire par le DSA) ne cherchent pas à analyser les risques pour le bien être mental liés au design addictif, celui de TikTok, sans doute aiguillonné par la procédure ouverte à son encontre, intègre les risques liés au bien être mental des utilisateurs dans sa taxonomie des risques systémiques et vise le « risque lié au caractère approprié du contenu selon l’âge et au bien être en ligne ». Le rapport envisage plusieurs mesures, parmi lesquelles des outils de gestion du temps d’écran configurés par défaut à 60 minutes par jour pour les mineurs (restant optionnels pour les adultes), la possibilité d’interrompre l’utilisation prolongée, ou encore la création d’un Conseil de la jeunesse. Pour la Commission, ces mesures sont insuffisantes lorsque le risque est ancré dans la configuration même du service, ce qui est le propre du design addictif.

D’autres voies possibles au sein de l’Union européenne. Les procédures engagées par la Commission pourraient aboutir à sanctionner le design addictif. La voie du private enforcement n’est toutefois pas fermée et les actions collectives devraient être menées. Elles ont déjà permis d’obtenir la suppression de clauses abusives figurant dans les conditions générales d’utilisation des réseaux, ou la suppression de contenu pornographique. Elles ont leur place pour la mise en œuvre du DSA (v. son art. 90). On vient d’ailleurs d’apprendre que la fondation néerlandaise SOMI a introduit une action devant le Tribunal de Copenhague (Danemark) à l’encontre de Meta en raison de la conception addictive de Facebook et d’Instagram.

 

par Fabienne Jault-Seseke, Professeur à l’Université de Paris-Saclay (UVSQ), Dante, IUF

Source

© Lefebvre Dalloz