Meta está introduciendo una serie de actualizaciones diseñadas para proteger a los usuarios más jóvenes de contenidos potencialmente dañinos y darles un mayor control sobre sus experiencias en línea. Los cambios se producen en medio de una creciente preocupación por el impacto de las redes sociales en la salud mental y el bienestar de los niños.
A partir de ahora, Meta ocultará los contenidos relacionados con el suicidio, las autolesiones y los trastornos alimentarios de los feeds e historias de los adolescentes, aunque los compartan sus amigos. Esto se suma a las políticas existentes que ya prohibían las recomendaciones de este tipo de contenidos en las páginas Explorar de los adolescentes. Los adolescentes que busquen términos relacionados con estos temas delicados serán dirigidos a recursos de ayuda de expertos, que les ofrecerán apoyo y orientación inmediatos.
Todos los usuarios adolescentes entrarán automáticamente en la configuración de control de contenidos más restrictiva de la plataforma, lo que limitará quién puede ver sus contenidos e interactuar con ellos. Esta configuración, que antes sólo se aplicaba a los nuevos usuarios, se extenderá ahora a las cuentas de adolescentes existentes. Meta animará a los adolescentes a tener un mayor control enviándoles notificaciones con indicaciones para que actualicen su configuración de privacidad. Estos avisos les guiarán hacia la activación de funciones que restringen quién puede volver a publicar sus contenidos, etiquetarles o mencionarles, ocultar comentarios ofensivos y limitar la mensajería únicamente a los seguidores.
Estas actualizaciones llegan en un momento en que Meta, junto con otros gigantes tecnológicos, se enfrenta a un creciente escrutinio sobre su papel en la seguridad en línea de los niños. Mark Zuckerberg, CEO de Meta, tiene previsto testificar ante el Comité Judicial del Senado a finales de este mes, junto con otros CEOs de plataformas, para discutir este tema crítico.