#StopChildwashingMETA #DejadDeUsarALosNiños #RegularMETAYa
Por Ana Caballero
En los últimos meses, la campaña SOSAdolescentech ha inundado titulares con un mensaje aparentemente irreprochable: proteger a los adolescentes frente a los riesgos digitales. Pero detrás del eslogan compasivo se oculta una estrategia de childwashing —el uso cínico de la imagen de la infancia para encubrir prácticas empresariales o políticas que, en realidad, no protegen a los menores, sino los intereses de quienes las promueven.
El relato protector: una pantalla de humo
Meta, matriz de Instagram y Facebook, ha convertido la retórica del “bienestar adolescente” en un instrumento de relaciones públicas y presión política. El reciente informe independiente Teen Accounts, Broken Promises (2025) documenta con precisión quirúrgica cómo las promesas de seguridad de la compañía son, en gran medida, ilusorias.
Según el informe, el 64 % de las herramientas de seguridad de Instagram fueron calificadas como rojas, es decir, ineficaces o directamente inexistentes. Solo un 17 % funcionaba como se anunciaba. Muchas habían sido desactivadas o eran fácilmente eludibles por cualquier usuario. Aun así, Meta las presenta ante padres, legisladores y medios como un “sistema integral de protección”.
Mientras tanto, la empresa intensifica su lobby contra la regulación efectiva, como la Kids Online Safety Act (KOSA) en Estados Unidos o el fortalecimiento del Online Safety Act en el Reino Unido. No es coincidencia que la presentación de las nuevas “Teen Accounts” coincidiera con audiencias parlamentarias sobre dichas leyes. Y ojo, se acerca el momento de que en España se hable del Proyecto de Ley Orgánica para la protección de los menores en el entorno digital. Las campañas de supuesta seguridad infantil funcionan, en la práctica, como un escudo reputacional que disuade a los legisladores de intervenir.
De la seguridad al espectáculo
La lógica del childwashing opera aquí con precisión corporativa: en lugar de rediseñar productos adictivos o inseguros, se lanzan herramientas cosméticas para generar titulares. El informe demuestra que Meta mide el éxito de sus políticas en el número de “funciones de seguridad anunciadas”, no en su eficacia real.
Por ejemplo, el sistema de “mensajes restringidos” entre adultos y menores permitió —hasta 2025— que desconocidos enviaran mensajes directos a adolescentes, pese a que Meta aseguraba lo contrario. Además, la plataforma recompensa a los menores con una lluvia de emojis por activar los “mensajes que desaparecen”, una función ideal para el grooming o la sextorsión, dejando a la víctima sin pruebas y sin medios de reporte.
Los mecanismos de denuncia son otro simulacro: solo el 0,02 % de quienes sufren una experiencia dañina obtienen ayuda real. Las rutas de reporte son confusas, lentas y disuasorias. Meta sabe que cuanto más difícil sea denunciar, menos datos habrá sobre el daño que su producto causa.
El diseño adictivo no es un error, es el negocio
El informe subraya algo crucial desde el punto de vista jurídico: el daño a los menores no es consecuencia de contenidos aislados, sino de un diseño estructuralmente peligroso. Instagram utiliza algoritmos de recomendación que empujan a los adolescentes hacia espirales de autodesprecio, autoexplotación y adicción a la interacción social.
Las pruebas del equipo investigador revelan que incluso con los máximos controles activados, los Teen Accounts fueron expuestos a contenido sexual, violento y de autolesión. La herramienta “No me interesa” no alteró las recomendaciones del algoritmo, y las búsquedas relacionadas con alimentación o depresión devolvían resultados que fomentaban conductas dañinas.
En suma, la plataforma sigue premiando la atención prolongada y el engagement emocional, aunque ello implique aumentar el riesgo de depresión, ansiedad o ideación suicida en menores. La retórica del “bienestar digital” se convierte, así, en el barniz moral de un modelo de negocio basado en la adicción adolescente.
Presión, lobby y desinformación regulatoria
Mientras los datos demuestran el fracaso sistémico de las medidas internas, Meta invierte millones en lobby para debilitar o frenar leyes de protección infantil. En EE. UU., presiona contra la KOSA; en Europa, busca suavizar la aplicación del Digital Services Act y del AI Act; y en América Latina impulsa discursos de “autorregulación tecnológica” bajo la bandera de la innovación y la libertad de expresión.
En este contexto, campañas como SOSAdolescentech actúan como una forma de captura del discurso público: trasladan la culpa a los padres (“use nuestras herramientas”), diluyen la responsabilidad de diseño (“solo moderamos contenido”) y neutralizan la demanda de una regulación con dientes.
Hacia una rendición de cuentas real
Desde una perspectiva jurídica y ética, el childwashing de Meta vulnera principios esenciales del derecho de protección de la infancia en entornos digitales. Instrumentaliza a los menores como escudo corporativo, incumple el deber de diligencia previsto en el Reglamento de Servicios Digitales europeo y podría constituir otra (más) práctica comercial engañosa al comunicar falsamente medidas de seguridad inexistentes.
Proteger a los adolescentes no es diseñar avisos que no funcionan ni crear campañas emocionales. Es rediseñar plataformas bajo el principio de seguridad por defecto, auditar algoritmos, garantizar reportes accesibles y someter los productos a verificación independiente.
Mientras no haya una obligación legal de rendición de cuentas —y sanciones efectivas por incumplimiento—, el SOSAdolescentech seguirá siendo lo que hoy es: una campaña de relaciones públicas para lavar la imagen de una industria que se lucra con la vulnerabilidad juvenil.
