Alors que les préoccupations grandissent concernant la sécurité en ligne des jeunes, Instagram annonce le déploiement d’un dispositif de floutage automatique pour les messages à caractère inapproprié. Ce projet de Meta vise à protéger les adolescents des contenus sensibles mais aussi des tentatives d’escroquerie.
Meta prend des mesures proactives pour renforcer la sécurité des jeunes utilisateurs d’Instagram face aux risques liés aux contenus inappropriés. La société mère a révélé son intention de tester une fonctionnalité permettant de flouter automatiquement les images contenant de la nudité dans les messages. Cette innovation, qui s’appuie sur une IA exécutée directement sur l’appareil des utilisateurs, cible en priorité les comptes des moins de 18 ans, pour qui l’option sera activée par défaut.
La particularité de ce système de protection réside dans sa capacité à analyser les images directement sur les appareils des utilisateurs. Elle garantit ainsi le fonctionnement de la fonctionnalité même dans les conversations chiffrées de bout en bout. Meta assure que cette approche respecte la confidentialité des échanges, les images n’étant accessibles à l’entreprise qu’en cas de signalement par les utilisateurs. Cette démarche s’inscrit dans une volonté plus large de l’entreprise de s’occuper des préoccupations liées à l’impact de ses plateformes sur la santé mentale des jeunes. La plateforme a donc décidé d’intégrer des mesures de sécurité renforcées en explorant des technologies avancées pour détecter les comportements à risque.
Parallèlement à ce dispositif de floutage, Meta développe des outils destinés à identifier les comptes susceptibles de se livrer à des tentatives d’extorsion sexuelle. L’entreprise teste également des messages d’alerte destinés aux utilisateurs ayant interagi avec de tels comptes pour renforcer son arsenal de mesures préventives. Ces projets s’accompagnent d’efforts constants pour masquer davantage de contenus sensibles aux moins de 18 ans, en réponse aux critiques concernant la gestion des contenus liés à des problématiques comme le suicide, l’automutilation et les troubles alimentaires.
Meta s’engage ainsi à créer un environnement numérique plus sûr pour les jeunes en réponse aux pressions réglementaires et aux critiques. Alors que la société fait face à des actions en justice et à des enquêtes en Europe et aux États-Unis, ces mesures pourraient marquer une étape importante dans la réponse de l’industrie face aux problèmes concernant la protection de la jeunesse en ligne.