D’après un article de Thomas Barrabi publié dans le New York Post le 23 juillet 2025
Instagram, propriété du géant Meta dirigé par Mark Zuckerberg, a reconnu avoir bloqué près de 135 000 comptes pour comportements prédateurs envers des enfants au cours de la dernière année. Dans un contexte de pressions accrues de la part des autorités fédérales et étatiques américaines, la plateforme dévoile désormais une série de nouvelles fonctionnalités de sécurité destinées à protéger les adolescents et les jeunes enfants contre les abus en ligne.
Thomas Barrabi rapporte que les comptes supprimés avaient publié des commentaires sexualisés ou sollicité des images à caractère sexuel sur des comptes gérés par des adultes et mettant en scène des enfants de moins de 13 ans. Meta a précisé que ses équipes de sécurité avaient également supprimé 500 000 comptes supplémentaires liés à ces premiers comptes prédateurs.
La compagnie a déclaré dans un billet de blogue : « Nous avons informé les utilisateurs qu’un compte ayant interagi de manière inappropriée avec leur contenu avait été supprimé, en les encourageant à faire preuve de prudence, à bloquer et à signaler. »
Parmi les nouvelles mesures de sécurité mises en place, Instagram offre dorénavant aux utilisateurs adolescents davantage d’informations lorsqu’ils reçoivent un message direct d’un compte inconnu. Ces informations incluent la date de création du compte ainsi que des conseils pour rester en sécurité en ligne.
Une autre innovation importante est l’amélioration de la fonction « bloquer et signaler ». Les jeunes peuvent maintenant bloquer et signaler un compte suspect en une seule étape, ce qui rend la procédure plus rapide et plus accessible. En juin 2025 seulement, les comptes adolescents ont bloqué un million de comptes et en ont signalé un million d’autres, après avoir vu une alerte de sécurité.
Instagram tente ainsi de redorer son image, ternie par des années de critiques portant sur l’insuffisance de ses mesures de protection des enfants. Comme l’explique Thomas Barrabi, le problème a refait surface durant le procès intenté par la Federal Trade Commission (FTC), qui cherche à démanteler certaines divisions de Meta, notamment Instagram et WhatsApp. Des documents internes révélés à cette occasion ont démontré que les responsables de Meta avaient été confrontés à la panique face à la prolifération de « groomers » — des adultes cherchant à entrer en contact avec des enfants à des fins sexuelles — sur la plateforme.
Depuis l’année dernière, Meta applique des règles plus strictes pour les comptes d’utilisateurs de moins de 18 ans, en les classant automatiquement dans des profils « adolescents », ce qui empêche les personnes qui ne les suivent pas de voir ou commenter leur contenu. La compagnie a également mis en place un système de détection automatisée bloquant l’envoi d’images nues aux mineurs.
Enfin, Barrabi souligne que la question de la sécurité en ligne des jeunes a aussi été reprise par les législateurs américains. Un groupe bipartisan de sénateurs a relancé plus tôt cette année le Kids Online Safety Act, un projet de loi visant à imposer aux entreprises comme Meta un « devoir de diligence » juridique pour protéger les mineurs contre les contenus nuisibles. Bien que le texte ait été adopté au Sénat en 2024 par 91 voix contre 3, il a échoué à franchir l’étape de la Chambre des représentants.
À l’heure où Instagram tente de démontrer qu’il prend la sécurité des jeunes au sérieux, les défis demeurent immenses, et la pression politique ne faiblit pas.



