Dans la nuit du 26 au 27 janvier, l’Assemblée nationale a adopté en première lecture une proposition de loi interdisant l’accès aux réseaux sociaux aux moins de 15 ans.
Soutenu par le gouvernement et le président de la République, le texte vise à protéger la santé mentale des adolescents face à des plateformes accusées de capter l’attention, d’exposer à des contenus violents ou de favoriser le cyberharcèlement. D’autres pays ont déjà mis en place des restrictions similaires, avec des résultats contrastés.
L’Australie, laboratoire grandeur nature
L’exemple le plus souvent cité est celui de l’Australie, pionnière en la matière. Depuis fin 2025, les plateformes sont légalement tenues d’empêcher l’accès aux réseaux sociaux aux moins de 16 ans. Facebook, Instagram, TikTok, Snapchat, X ou encore Twitch ont dû se conformer à la loi, sous peine d’amendes pouvant atteindre plusieurs dizaines de millions d’euros.
En quelques semaines, plus de 500 000 comptes de mineurs ont été supprimés, dont plus de 300 000 sur Instagram. Le gouvernement australien met en avant un signal fort envoyé aux plateformes, même si le contournement par de faux profils reste possible et difficile à quantifier.
En Europe, des initiatives dispersées et encore hésitantes
En Europe, les initiatives se multiplient, mais restent fragmentées. Le Parlement européen a adopté un rapport non contraignant recommandant de limiter l’accès libre aux réseaux sociaux aux moins de 16 ans, sans imposer de cadre commun aux États membres.
Dans l’attente d’une harmonisation, plusieurs pays avancent seuls. Le Danemark prépare une interdiction pour les moins de 15 ans, avec une possibilité d’autorisation parentale dès 13 ans. L’Espagne examine un projet similaire pour les moins de 16 ans. En Grande-Bretagne, un amendement voté par la Chambre des Lords visant à interdire les médias sociaux aux moins de 16 ans divise profondément la majorité, sans qu’une décision définitive n’ait encore été prise.
En Asie, entre échec assumé et contrôle strict
En Asie, les approches sont très contrastées. La Corée du Sud est souvent citée comme un exemple d’échec. La loi dite « Cendrillon », adoptée en 2011 pour limiter l’accès nocturne aux jeux en ligne des mineurs, a été abrogée dix ans plus tard, jugée inefficace et attentatoire aux libertés. Elle a été remplacée par un système de restrictions volontaires, très peu utilisé.
À l’inverse, la Chine applique un contrôle strict de l’âge et du temps passé en ligne. Depuis septembre 2024, la présence du « mode mineur » est obligatoire sur les smartphones chinois : les moins de 8 ans sont notamment restreints à 40 minutes par jour. Cependant, les parents peuvent choisir de désactiver ce mode s’ils le souhaitent.
Dans plusieurs pays, l’interdiction des réseaux sociaux pour les mineurs est déjà une réalité. Mais sa réussite dépend largement de la capacité à contrôler l’âge des utilisateurs, un défi encore loin d’être résolu. © Syda Productions, Adobe Stock
La vérification de l’âge, talon d’Achille des interdictions
La principale difficulté commune à toutes ces législations reste la vérification fiable de l’âge. En France, deux pistes sont à l’étude : la certification via une pièce d’identité ou le recours à des outils de reconnaissance faciale.
Mais ces solutions suscitent de fortes réserves. Olivier Blazy, cryptographe et chercheur à l’École polytechnique, souligne que « les technologies actuellement envisagées ne permettent pas de distinguer de façon fiable un adolescent de 14 ans d’un jeune de 16 ans ».
Un cadre juridique européen contraignant
Autre obstacle majeur : la compatibilité avec le droit européen, en particulier le règlement sur les services numériques (DSA). La France souhaite éviter le scénario de la loi de 2023 instaurant une majorité numérique à 15 ans, jamais appliquée faute de conformité juridique.
Les lignes directrices publiées récemment par la Commission européenne ouvrent une marge de manœuvre, mais le cadre reste étroit et expose le texte à d’éventuels ajustements.
Le rôle clé et ambigu des plateformes
Enfin, ces dispositifs reposent largement sur la bonne volonté et la capacité technique des plateformes elles-mêmes. Ce sont elles qui doivent mettre en place les outils de vérification d’âge, supprimer les comptes non conformes et prévenir les contournements, sous peine de sanctions financières. Or leur modèle économique repose précisément sur la captation de l’attention et l’élargissement de leur base d’utilisateurs, ce qui alimente un rapport de force permanent entre régulateurs publics et acteurs privés du numérique.
En France, la réussite de cette interdiction dépendra désormais de sa mise en œuvre concrète, des choix techniques retenus et de la capacité réelle des acteurs du numérique à s’y conformer.