Face à un constat aussi préoccupant, il est intéressant de s’interroger sur la manière dont les États peuvent protéger les enfants des risques liés à Internet tout en préservant leurs droits et en responsabilisant les plateformes numériques.
Afin de répondre à cette question, l’analyse s’organise en deux temps. Dans un premier temps, il s’agira d’examiner la protection des mineurs en ligne, en commençant par préciser la notion de mineur dans le contexte juridique et numérique, puis en présentant les principaux enjeux liés à la présence des enfants sur Internet, notamment leur exposition à certains contenus, les pratiques des plateformes et les nouveaux défis posés par l’intelligence artificielle.
Puis dans un second temps, une perspective comparative sera adoptée afin d’observer comment différents systèmes juridiques tentent d’encadrer ces enjeux. Seront ainsi examinés les cadres réglementaires mis en place en Australie, puis en France et dans l’Union européenne, avant d’aborder le cas du Québec. L’objectif est de mettre en évidence les différentes approches adoptées pour protéger les mineurs en ligne et responsabiliser les plateformes numériques.
I. La protection des mineurs dans l’environnement numérique
La notion de mineur
Il est essentiel de déterminer précisément à qui l’on fait référence lorsque l’on parle d’« enfants », afin de cerner la portée de ces chiffres mentionnés précédemment.
La Convention internationale des droits de l’enfant (CIDE) définit le mineur et l’enfant comme « tout être humain âgé de moins de dix-huit ans, sauf si la majorité est atteinte plus tôt en vertu de la législation qui lui est applicable ».
Cette définition diffère cependant légèrement selon les pays à l’ère du droit numérique.
Effectivement, au Québec, l’âge de 14 ans est retenu pour une grande partie de l’encadrement législatif applicable aux personnes mineures. Toutefois, selon le Barreau, l’établissement d’une « majorité numérique » située entre 14 et 16 ans pourrait être appropriée. La mise en place d’un tel seuil supposerait néanmoins l’instauration de mécanismes fiables de vérification de l’âge, lesquels devraient respecter certains principes fondamentaux, notamment la prise en compte du respect de la vie privée dès la conception (privacy by design), le traitement localisé des données et la transparence des acteurs.
Le Canada, quant à lui, ne dispose pas de loi sur la majorité numérique, mais ce concept est tout de même en cours d’examen après le rendu d’un rapport par la Commission spéciale sur les impacts des écrans et des réseaux sociaux sur la santé et le développement des jeunes.
Finalement, la France fixe à 15 ans la majorité numérique depuis la loi Marcangeli du 7 juillet 2023 s’appuyant sur l’article 8 du RGPD.
Cette décision est expliquée par la prise en compte du développement physique et psychique de l’être humain. Le cerveau se réorganise à l’entrée de la puberté et se trouve pleinement développé entre 22 et 24 ans environ. Le choix de ce seuil français correspond donc à la fin de la puberté et à la première phase du développement du cerveau, comme l’indique Olivia Sarton dans son article « réseaux sociaux et protection des mineurs : ressources juridiques » .
La synthèse des enjeux de protection
Selon Murielle Cahen, les « mineurs sont laissés à l’abandon sur les réseaux sociaux ».
Servane Mouton, neurologue et présidente de la Commission judiciaire du sénat américain, évoque quant à elle « l’addiction aux réseaux sociaux », en rappelant qu’il est difficile, voire impossible pour les enfants, de s’en détacher d’eux-mêmes. Mais un paradoxe existe ici, car en refusant complètement l’accès aux écrans de son enfant, un parent l’isole complètement. Il relève donc de la responsabilité des parents de trouver le bon équilibre.
En effet, il n’est méconnu de personne que les applications et médias sont conçus pour y maintenir les utilisateurs le plus longtemps possible, notamment par la mise en place de « j’aime » et la possibilité de voir en temps réel ce que font nos amis. Cependant, les enfants sont des personnes vulnérables et sont donc plus exposés aux risques.
Les jeunes sont aujourd’hui hyperconnectés : en France, une enquête menée par la CNIL en 2020 montrait que 82% des 10–14 ans et 95% des 15–17 ans utilisent Internet seuls, sans leurs parents, et que la première inscription sur un réseau social arrive en moyenne vers 8 ans et demi.
Jonathan Haidt, psychologue social à l’Université de New York, explique cela par la diffusion rapide de l’Internet à haut débit, l’émergence des réseaux sociaux et l’arrivée de l’iPhone. Ce dernier déclare que « nous sommes passés d’une « enfance de jeux » à une « enfance de smartphone » au milieu des années 2010 ».
Alors que les réseaux sociaux étaient au départ utilisés pour renouer et garder contact avec des amis malgré la distance géographique ou encore pour créer des communautés virtuelles et groupes de pairs, des dérives sont rapidement apparues.
Les enfants, perçus comme des personnes vulnérables, peuvent être soumis à diverses images préjudiciables telles que des images pornographiques, violentes ou encore des jeux dangereux comme celui du foulard ou le « paracétamol challenge » .
Du fait de cette surexposition à des images modifiées, la perception du corps ou de la sexualité peut ainsi être modifiée. De nombreux chercheurs associent donc la présence quasi permanente des mineurs sur les réseaux sociaux à la dégradation de la santé mentale.
C’est pour cela qu’en 2021, Frances Haugen, lanceuse d’alerte américaine, a dénoncé les dérives de Facebook et d’Instagram et des dangers des réseaux sociaux et en particulier pour les mineurs. Ultérieurement, fin janvier 2024, les PDG de Meta, X, Tiktok, Snapchat et Discord ont été auditionnés par la Commission judiciaire du Sénat américain et ont été vivement mis en cause sur les dommages causés aux mineurs sur les réseaux sociaux. Néanmoins, la présence des jeunes sur les réseaux sociaux semble toujours aussi importante.
Un exemple concret de l’hyperprésence des enfants sur Internet est l’utilisation en 2015 par des pirates informatiques de tablettes pour enfants afin d’accéder à leurs données.
Plus récemment, la poupée interactive Calya a été bannie par l’Allemagne en 2017, représentant un trop grand danger pour la vie privée. Elle avait en effet la capacité de répondre et converser avec les enfants.
Parce que les enfants ne perçoivent souvent pas les contenus illicites et ne disposent pas des outils pour y faire face, ils ne sont de ce fait pas prudents. Malheureusement, ils se retrouvent donc régulièrement victimes de convoitises sexuelles dévoyées.
Internet aidant, des pratiques comme le grooming sont apparues. Ici, l’adulte se lie d’amitié avec un enfant dans le but de commettre des abus sexuels à son encontre.
Ces prédateurs sexuels exploitent les mêmes mécanismes qu’ils agissent en France, au Canada ou en Australie. Cela se fait par le biais de messages privés, de lives ou encore de jeux en ligne.
Les défaillances de l’IA face à la protection des enfants
Avec le développement de l’IA, cette préservation des enfants semble de plus en plus urgente. Les techniques d’hypertrucage (deepfake) permettent dès maintenant de produire de nouvelles images, recréer une voix ou même de disposer le visage d’une personne sur le corps d’une autre, et peuvent donc permettre de manipuler un enfant.
La protection des enfants est donc un défi mondial du fait de sa nature volatile et sans frontière. Une initiative a été lancée par l’Union Internationale des Télécommunications nommée Child Online Protection afin de promouvoir la protection des enfants en ligne, mais également développer des outils pour aider les gouvernements, les entreprises et les éducateurs.
De plus, des lignes directrices de l’Union Internationale des Télécommunications (UIT) pour la protection des enfants sont des recommandations à l’attention de tous les partenaires pertinents afin de contribuer au développement d’un environnement sain et sûr pour les plus jeunes.
Malheureusement, il existe encore de nombreux cas dans lesquels l’IA est omniprésente et devient même un soutien émotionnel et une compagnie pour les jeunes, au point que certains lui font part de leurs idées noires.
C’est le cas d’un jeune adolescent de 16 ans qui s’est donné la mort en avril 2025 après avoir fait part de sa détresse psychologique à Chatgpt 4.0. L’avocat de la famille explique que quand les parents ont eu accès aux échanges « Chatgpt lui expliquait comment s’enlever la vie » et l’encourageait à « s’isoler de sa famille et validait ses pensées les plus noires ».
Pour la famille, cette version de Chatgpt n’était pas assez aboutie et était « trop complaisante en validant absolument tout ce que disait l’utilisateur », et cela aurait directement contribué au suicide de l’adolescent.
Plusieurs témoignages font surface et tous accusent les agents conversationnels de l’état tragique dans lequel se trouvent leurs enfants. Des épisodes de paranoïa aux suicides en passant par les crises de panique, ces parents se sentent démunis face à ce géant du numérique qui en prime ne règle pas ses problèmes de sécurité.
Ces témoignages de parents ont été présentés devant le Congrès américain en septembre 2025 et le Sénateur Josh Hawley a accusé les entreprises technologiques de maximiser l’engagement des utilisateurs au détriment de la sécurité des enfants
Depuis le 30 septembre 2025, OpenAI a mis en place une mesure de contrôle parental permettant aux parents de partager un compte avec leur enfant. Il est possible pour l’enfant de dissocier ensuite son compte, mais les parents en seront tout de même informés. Les parents ne pourront pas avoir accès aux conversations de leurs enfants à moins que le système et les évaluateurs formés détectent des risques graves pour la sécurité. Dans ce cas-là, les parents seront contactés.
Il existe également une protection supplémentaire quant aux contenus proposés, qu’ils s’agissent de contenus graphiques ou encore de défis viraux. Les parents peuvent aussi décider la mise en place d’heures de tranquillité, définissant des plages horaires pendant lesquelles Chatgpt ne peut être utilisé.
Néanmoins, l’encadrement de l’utilisation de l’IA pour les enfants ne suffit pas. Effectivement, cette dernière peut être utilisée par des adultes mais porter tout de même atteinte aux enfants.
En effet, plus récemment, le scandale Grok, l’outil de génération d’image intégré à X (anciennement Twitter), illustre bien les risques spécifiques posés par les outils d’IA. Grok permet aux utilisateurs de manipuler des photos de personnes réelles, y compris des mineurs, dans des scénarios violents ou sexuels.
Selon le rapport de l’Internet Watch Fondation (IWF), certaines images circulant étaient des « images criminelles », incluant des photos sexuelles de jeunes filles semblant seulement âgées de 11 ans. Il s’agit donc sans aucun doute d’abus sexuel sur mineur.
Face à cette situation, la plateforme X a répondu en janvier 2026 en limitant cette fonctionnalité aux abonnements payants, une décision vivement critiquée et dénoncée comme une « monétisation de l’abus ». Comme le souligne le secrétaire d’État au ministère des Sciences de l’Innovation et de la Technologie (DSIT), cela revient à dire aux victimes que le service reste disponible « si vous être prêt à payer », ce qui est « insultant et dangereux ».
Certains professionnels de la protection de l’enfance et des droits de l’enfant considèrent que « cette situation n’est pas une surprise. Ce qui est décevant, c’est le temps qu’il a fallu pour que des mesures concrètes soient prises ».
Néanmoins, le Royaume-Uni s’est engagé à renforcer les infractions liées aux images intimes prévues dans le Data Act de 2025 afin de mieux encadrer ce type de contenu.
Toutefois, le scandale Grok « n’est pas un cas isolé d’échec d’une plateforme ou d’un outil, il est le symptôme d’un système global ou l’intelligence artificielle évolue beaucoup plus rapidement que les protections nécessaires aux enfants ».
C’est pourquoi il ne faut pas cesser de réglementer afin d’assurer une protection indispensable aux enfants.
II. Les cadres réglementaires à travers le monde
L’Australie comme chef de file de la restriction
Au micro de Radio-Canada, Anthony Albanese, Premier ministre australien évoquait les aspects néfastes des réseaux sociaux, car « utilisés comme une arme par les harceleurs […], sont vecteurs d’anxiété, constituent un outil pour les escrocs et, pire que tout, sont un outil pour les prédateurs en ligne ».
L’Australie a mené en 2024 une démarche pionnière au niveau mondial en adoptant l’Online Safety Act. Cette mesure interdit aux moins de 16 ans la création de compte et l’accès à certains réseaux sociaux tels qu’Instagram, Tiktok, Snapchat ou encore YouTube.
Les plateformes ont eu un an, jusqu’en décembre 2025, pour mettre en place des contrôles d’âge « raisonnables ». En cas de manquement, des amendes peuvent être prononcées, allant jusqu’à 49,5 millions de dollars australiens.
Ces mesures et sanctions radicales ont été créées pour faire face aux géants de la Tech et ne visent donc que les entreprises. Cela signifie que ni les parents, ni les enfants ne peuvent être mis en cause. Par volonté, la régulation est centrée sur la responsabilité des plateformes et non le schéma familial.
Plusieurs solutions existent pour effectuer un contrôle de l’âge, comme le fait de scanner ses papiers d’identité afin de prouver qu’on a plus de 16 ans. Mais cette solution connaît des limites, il est possible d’utiliser les papiers de quelqu’un d’autre. Ce mécanisme soulève également des questions quant aux questions de confidentialité des données personnelles. Les autorités ont par ailleurs notifié aux plateformes qu’il leur est impossible de demander la présentation d’un document d’identité, mais qu’elles peuvent utiliser un service extérieur.
Par exemple, Snapchat utilise un compte en banque australien ou le service K-ID établi à Singapour qui récupère quant à lui les papiers d’identité.
Une autre manière d’estimer l’âge est l’analyse comportementale, car un adolescent aura plus tendance à regarder « des astuces pour les jeux vidéo que des conseils pour détartrer une pomme de douche » . Seuls les Australiens soupçonnés de ne pas avoir 16 ans devront effectuer une vérification de l’âge, le reste de la population y échappera.
Néanmoins, la commissaire australienne à la sécurité numérique Julie Inman Grant, propose un recours à une « cascade de technique et outils », car les adolescents vont être de plus en plus ingénieux pour contourner cette loi. Il est donc nécessaire de rester très attentif.
La France et l’UE face au défi majeur de la protection des mineurs sur Internet
Le Code pénal français dispose d’une section spécifique intitulée « de la mise en péril des mineurs ». Il y est fait mention dans cette section de l’ensemble des sanctions applicables en cas de crimes ou délits réalisés sur un mineur. Les peines peuvent en outre se voir aggravées dans les cas où les infractions sont réalisées aux moyens réseaux de télécommunications.
L’article 227-22 du Code pénal prévoit par exemple 7 ans au lieu de 5 ans, et 10 ans pour les mineurs de 15 ans lorsqu’il s’agit de corruption réalisée grâce à des moyens de communication électronique.
Le cas de proposition sexuelle faite par un majeur à un mineur, punissable de 2 ans d’emprisonnement, peut voir sa peine aggravée à 5 ans en cas de rencontre à la suite de ces propositions, selon l’article 227-22-1 du Code pénal.
Une jurisprudence ancienne, mais qu’il semblait intéressant de mentionner a été rendue par la chambre criminelle de la Cour de cassation en date du 12 septembre 2007. Ici, les juges souhaitaient réprimer la diffusion de représentation de mineurs à caractère pornographique et ce, qu’il s’agisse d’une représentation d’un enfant réel ou fictif. Cet arrêt démontre bien l’ampleur de la problématique et la volonté du législateur d’y faire face depuis de nombreuses années. L’enfant ne doit pas être réduit à un objet sexuel.
La loi pour la confiance dans l’économie numérique adoptée le 21 juin 2004 pose un cadre clair. Elle transpose la directive relative au commerce électronique et rappelle l’absence d’obligation générale de surveillance pour les fournisseurs d’accès et intermédiaires techniques.
Cependant, les éditeurs de contenus sont soumis à une obligation de résultat, empêcher l’accès des mineurs aux contenus préjudiciables comme pornographique ou violent. Dans le cas contraire, des sanctions pénales existent comme des peines de prison avec sursis.
Ces derniers doivent également, au terme de l’article 6, mettre en place un dispositif de signalement et rendre inaccessible les contenus manifestement illicites après en avoir été informés. Pour finir, un contrôle parental doit être mis en place et il est obligatoire d’en informer les abonnés.
En 2023, la France crée la majorité numérique à 15 ans, grâce à la loi n°23-566. Cette dernière prévoyait la possibilité pour un enfant de créer un compte sur les réseaux sociaux avec l’accord parental.
Cette limitation d’accès des enfants peut entraîner différentes limites, comme soulevées par la CNIL.
Effectivement, cela peut représenter un risque d’altération de la confiance parents/enfants. Les enfants pourraient donc être encouragés à dissimuler les contenus auxquels ils ont accès ou leur présence sur les réseaux sociaux. La CNIL souligne que cela peut être perçu comme une entrave à l’autonomisation des mineurs ou même de l’autocensure. La liberté d’expression peut également se voir limitée comme l’accès à l’information et le développement de l’esprit critique.
Selon Murielle Cahen, « le risque est d’habituer le mineur à être sous surveillance constante et ainsi à ne pas lui faire prendre conscience de la valeur individuelle et collective de la vie privée dans une société démocratique ».
Une proposition de loi adoptée par l’Assemblée nationale en première lecture le 26 janvier 2026 est quant à elle encore plus stricte en interdisant l’accès aux réseaux sociaux aux moins de 15 ans. L’objectif est de limiter la pression commerciale sur les mineurs et d’interdire la publicité en faveur des réseaux sociaux ciblée vers eux, y compris via les influenceurs.
Cette loi s’inscrit dans une dynamique internationale après l’adoption en 2024 par l’Australie de l’Online Safety Act, interdisant l’accès aux réseaux sociaux pour les moins de 16 ans. La France est toutefois le premier pays de l’UE à suivre les recommandations du Parlement Européen de novembre 2025, appelant à « une action ambitieuse pour protéger les mineurs en ligne ».
Quelques critiques peuvent pourtant être formulées : le déplacement de responsabilité vers les plateformes ou les jeunes, sans traiter suffisamment l’éducation, la formation des enseignants ou encore l’accompagnement des familles, comme le souligne Serge Tisseron.
Cette loi semble pour certain n’être qu’une illusion, l’idée qu’un cadre juridique suffirait à résoudre des problèmes sociétaux et culturels. Les mineurs seraient là aussi perçus uniquement comme vulnérables, amenant donc à des restrictions sévères plus qu’éducatives.
Il semble nécessaire de passer par des restrictions très strictes, en tout cas dans un premier temps, afin de nuire à ce problème mondial.
Au niveau européen, depuis 2022 a été mise en place une « nouvelle stratégie européenne pour un Internet mieux adapté aux enfants ». Plusieurs textes y font mention. L’article 24§2 de la charte des droits fondamentaux de l’UE traduit la considération primordiale de l’intérêt supérieur de l’enfant et de sa protection en ligne. Le Digital Service Act (DSA) applicable depuis le 17 février 2024 prévoit quant à lui en son article 28 l’obligation de garantir « un niveau élevé de protection de la vie privée, de sûreté et de sécurité des mineurs ». La Commission européenne a émis en juillet 2025 des lignes directrices en proposant différentes mesures telles que la vérification d’âge ou le paramétrage par défaut plus protecteur pour les enfants.
Il a également été relevé l’importance de prendre en compte la voix des jeunes par le biais de comités de jeunes utilisateurs ou encore de panels de testeurs adolescents afin de mieux prendre en compte leurs besoins et ainsi adapter les fonctionnalités à l’âge et à leur niveau de maturité.
Encore une fois l’ambition est de protéger sans déresponsabiliser en accompagnant sans surveillance excessive.
La majorité numérique : un projet en débat au Québec
La sensibilisation des jeunes à la protection des renseignements personnels ainsi qu’à la vie privée est une des préoccupations importantes de la Commission d’accès à l’information .
Comme explicité auparavant, la technologie est omniprésente dans la vie des mineurs. Cependant il est important de connaître « la face cachée » de ces derniers.
C’est pour cela qu’une campagne intitulée « ce que tu publies, penses-y » au cours de laquelle la Commission a rencontré de 2017 à 2020 plus de 32 000 élèves d’écoles secondaires au Québec semble essentielle. L’objectif était de les sensibiliser à adopter un comportement responsable et sécuritaire en ligne. La Commission souhaitait déclencher une prise de conscience collective et un regard critique concernant l’information postée afin de se protéger, mais également de ne pas se placer en situation de vulnérabilité.
Au cours de ces dernières années, elle a rendu différents rapports et recommandations concernant le respect par les organisations des obligations en matière de protection des renseignements personnels des jeunes, et notamment un en septembre 2024.
Ce dernier, intitulé « mieux protéger les renseignements personnels des jeunes pour assurer leur bien-être numérique », évoque les impacts des écrans et des réseaux sociaux sur la santé et le développement des jeunes.
Cette recommandation peut permettre une prise de conscience collective sur l’utilisation excessive d’Internet avec et autour des enfants. De nombreuses garderies du Québec utilisent des applications telles que Planitou ou encore ClassDojo permettant de créer un lien entre parents, enfants, éducatrices et enseignants.
Cependant, selon Steve Waterhouse (expert en cybersécurité et chargé de cours en sécurité informatique à l’Université de Sherbrooke), leur utilisation est peu encadrée et donc pas toujours sécuritaire. Il conseille donc aux parents de se renseigner sur les politiques de protection des données personnelles ainsi que sur les informations recueillies sur leurs enfants.
Le droit civil du Québec prévoit que les enfants disposent d’un droit à l’image et que l’autorisation parentale est nécessaire avant de publier et diffuser des images d’eux. Il faut donc, ici encore, veiller à ce que les applications utilisées par les parents ou tiers respectent cette obligation.
Après la mise en place de restrictions dans plusieurs pays comme l’Australie ou la France, la Commission spéciale sur les impacts des écrans et des réseaux sociaux sur la santé et le développement des jeunes a rendu un rapport final en 2025. Dans sa recommandation 42, cette dernière prévoyait la mise en place d’une majorité numérique à 14 ans.
Pour l’instant, aucun texte n’existe réellement, ce concept est encore en débat.
Il y a un peu plus d’un an, le barreau du Québec émettait ses recommandations sur le concept de majorité numérique.
Il rappelait qu’il était important d’adopter des règles quant à l’utilisation des réseaux sociaux afin de protéger au mieux les mineurs, mais que cela doit se faire dans le respect des droits garantis par la Charte canadienne des droits et libertés et la Charte des droits et libertés de la personne, notamment ce qui a trait à la liberté d’expression et au respect de la vie privée de la personne.
En complément de cette nouvelle législation future, il serait intéressant et important de mettre en place des mécanismes de contrôle d’âge. Toutefois, trois grands principes doivent être respectés, qui sont le privacy by design, le traitement localisé des données et la transparence des acteurs.
Le barreau du Québec évoque la notion mondiale de cet enjeu et questionne la pertinence d’une concertation des juridictions permettant la mise en place d’une législation commune, cohérente et efficace.
Il est également important de mentionner que des discussions fédérales existent en parallèle, comme avec un projet de loi canadien visant un environnement numérique plus sûr pour les mineurs. Mais seule la première lecture a été terminée en juin 2025, et à ce jour, le texte ne fait pas partie de « l’Ordre des priorités ».
Pour conclure, la loi crée un cadre, mais le meilleur contrôle reste la présence d’un adulte qui s’intéresse vraiment à ce que l’enfant vit en ligne. Il est important de mettre en place un dialogue régulier et pédagogue sur l’usage d’Internet plutôt que de limiter, voire d’interdire complètement son usage. De plus, des paramétrages peuvent être mis en place comme la création de profils privés ou encore la restriction et si possible l’absence de partage de localisation.
Parfois, les enfants ne sont pas à l’origine de leur présence sur Internet, ce sont les parents qui, en partageant des photos d’eux de façon anodine et inoffensive, leur créent une empreinte numérique. Une étude menée en 2018 par un bureau du commissaire à l’enfant en Angleterre révélait qu’à l’âge de 13 ans, un enfant se retrouvait avec en moyenne avec 1300 photos de lui en ligne partagées par ses parents. Effectivement, une image postée sur une plateforme publique pour un évènement important tel qu’un anniversaire ou une activité en famille, peut ensuite être réutilisée sans le consentement de la personne. Il est important d’être conscient que même après sa suppression, l’image ne disparaîtra jamais d’Internet. Il est donc essentiel en tant que parent de savoir qu’à long terme, cela peut exposer l’enfant à des dangers. Il faut donc limiter le nombre de publications de contenu et qu’il ne fasse pas mention de son prénom, de sa date de naissance ou encore de l’adresse. Des publications montrant des enfants dans certaines situations, par exemple en pleine crise ou nus, doivent être évitées au maximum.
Néanmoins, selon Marie-Pier Jolicoeur, doctorante en droit à l’Université Laval et collaboratrice au Centre pour l’intelligence émotionnelle en ligne, il ne faut pas dramatiser. Il est encore possible de partager des photos et vidéos de ses enfants. Ici « deux éléments rentrent en opposition, notre liberté de publier en tant que parents, et la vie privée de nos enfants ». Le but selon elle est d’équilibrer les deux car « il ne faut pas cesser de partager, mais il faut mieux partager ».
Dans une volonté de responsabilisation, il est aussi possible de demander l’accord de l’enfant afin de lui montrer comment utiliser sainement Internet afin qu’il puisse dans le futur se protéger au mieux. Même si cela est adapté à sa maturité et à son tempérament, des questionnements peuvent tout de même surgir quant à la valeur de ce consentement, car un enfant n’en connaît pas la définition et n’a pas conscience de l’ampleur d’Internet. Cette idée de consentement peut donc être débattue.
Même s’il s’agit d’un pas en avant, ce dernier est loin d’être suffisant. Il est important de continuer les efforts afin que tous les enfants soient protégés sur Internet.
Ce contenu a été mis à jour le 25 mars 2026 à 14 h 05 min.

