Deux heures, trois heures, parfois toute la nuit : pour des millions de jeunes Européens, TikTok n’est plus un simple divertissement, c’est un réflexe.
Bruxelles tire désormais la sonnette d’alarme face à des mécanismes jugés délibérément addictifs.
Premières conclusions : une conception jugée problématique
Selon la Commission, l’enquête ouverte en février 2024 montre, à titre préliminaire, que TikTok n’aurait pas correctement évalué les risques liés à ses fonctionnalités dites addictives.
Les autorités européennes estiment que certaines caractéristiques de conception « récompensent » constamment l’utilisateur par de nouveaux contenus. Ce fonctionnement entretiendrait l’envie irrépressible de continuer à faire défiler les vidéos.
Des travaux scientifiques analysés dans le cadre de l’enquête indiquent que ces mécanismes peuvent favoriser des comportements compulsifs et réduire la maîtrise de soi, en particulier chez les mineurs et les adultes vulnérables.
La Commission relève notamment que TikTok aurait négligé certains indicateurs importants d’usage problématique. Parmi eux :
– le temps passé sur l’application durant la nuit par des mineurs,
– la fréquence d’ouverture de l’application,
– d’autres signaux susceptibles de révéler une utilisation excessive.
Pour Bruxelles, l’évaluation des risques réalisée par TikTok serait donc insuffisante au regard des exigences du DSA.
Des mesures de protection jugées inefficaces
La Commission européenne considère également, à ce stade, que TikTok ne mettrait pas en œuvre des mesures « raisonnables, proportionnées et efficaces » pour atténuer les risques liés à sa conception.
La plateforme propose pourtant des outils de gestion du temps d’écran et des dispositifs de contrôle parental. Mais selon l’analyse préliminaire, ces mécanismes ne réduiraient pas efficacement les risques.
Les outils de limitation du temps d’écran seraient faciles à contourner et n’introduiraient que peu de véritables freins à l’usage prolongé.
Quant au contrôle parental, son efficacité serait limitée par la nécessité pour les parents de procéder à une installation spécifique, exigeant du temps et certaines compétences techniques.
En clair, pour la Commission, les garde-fous actuels ne suffisent pas à compenser une architecture pensée pour capter l’attention.
Bruxelles évoque ainsi la nécessité de modifier la conception de base du service. Parmi les pistes avancées :
– la désactivation progressive des fonctionnalités les plus addictives,
– la mise en place d’interruptions réellement contraignantes, notamment pendant la nuit,
– une adaptation du système de recommandations.
Ces conclusions restent toutefois préliminaires et ne préjugent pas de l’issue finale de la procédure.
Une enquête approfondie et documentée
La position de la Commission s’appuie sur une enquête qualifiée d’approfondie.
Elle comprend l’analyse des rapports d’évaluation des risques produits par TikTok, l’examen de données et de documents internes, ainsi que les réponses de la plateforme à plusieurs demandes d’informations.
Les services européens ont également examiné un vaste corpus de travaux scientifiques consacrés à l’addiction comportementale et aux effets des plateformes numériques sur le cerveau.
Des entretiens ont été menés avec des spécialistes de différents domaines, dont la dépendance comportementale.
Cette approche vise à asseoir les conclusions sur des éléments vérifiables et documentés, conformément aux exigences du règlement sur les services numériques.
Quelles sanctions en cas de manquement ?
À ce stade, TikTok peut exercer ses droits de la défense.
La plateforme a la possibilité d’examiner les documents figurant dans le dossier d’enquête et de répondre par écrit aux conclusions préliminaires.
Le Comité européen des services numériques sera consulté dans le même temps.
Si la position de la Commission était confirmée dans une décision finale, un constat de manquement pourrait être adopté.
Celui-ci pourrait entraîner une amende pouvant atteindre jusqu’à 6 % du chiffre d’affaires annuel mondial total de l’entreprise, en fonction de la nature, de la gravité, de la durée et de la récurrence de l’infraction.
Un signal fort envoyé aux géants du numérique opérant en Europe.
Un contexte plus large : mineurs et « effet terrier de lapin »
L’enquête ouverte en février 2024 ne porte pas uniquement sur la conception addictive.
Elle examine également l’« effet terrier de lapin » des systèmes de recommandations, susceptible d’enfermer les utilisateurs dans des bulles de contenus toujours plus ciblés.
Sont aussi étudiés :
– le risque d’exposition des mineurs à des contenus inappropriés en cas de fausse déclaration d’âge,
– les obligations de protection renforcée de la vie privée, de la sûreté et de la sécurité des mineurs.
Par ailleurs, l’accès des chercheurs aux données publiques de la plateforme a déjà fait l’objet de conclusions préliminaires en octobre 2025.
La question de la transparence publicitaire a, elle, donné lieu à des engagements contraignants en décembre 2025.
Au-delà du cas TikTok, c’est l’application concrète du Digital Services Act qui est testée.
Une question de souveraineté numérique et de responsabilité
Le débat ouvert par cette procédure dépasse le seul cadre juridique.
Il interroge le modèle économique des grandes plateformes fondé sur la captation maximale de l’attention.
La Commission européenne affirme vouloir garantir un haut niveau de protection des mineurs et des utilisateurs vulnérables.
Dans une Europe confrontée à la montée des troubles liés à l’hyperconnexion, la question n’est plus théorique.
En rappelant qu’aucune entreprise, aussi puissante soit-elle, ne peut s’affranchir des règles européennes, Bruxelles entend affirmer une forme de souveraineté numérique.
Reste désormais à savoir si les conclusions préliminaires seront confirmées et si TikTok devra revoir en profondeur son fonctionnement.

















