Documentos internos revelan que el liderazgo de Meta desestimó las advertencias de seguridad sobre acompañantes de IA que participaban en interacciones románticas explícitas, incluidas aquellas con menores. La compañía procedió con el lanzamiento a pesar de las objeciones de sus propios equipos de seguridad, según documentos judiciales revelados el lunes como parte de una demanda del Fiscal General de Nuevo México, Raúl Torrez.
Preocupaciones de seguridad pasadas por alto
Las comunicaciones entre ejecutivos de seguridad de Meta como Ravi Sinha (jefe de política de seguridad infantil) y Antigone Davis (jefe de seguridad global) confirman que plantearon preocupaciones sobre la posibilidad de que los chatbots sean explotados para interacciones sexualmente explícitas, particularmente con usuarios menores de edad. Estos funcionarios estuvieron de acuerdo en la necesidad de salvaguardias, pero los documentos sugieren que el director ejecutivo, Mark Zuckerberg, rechazó las recomendaciones de controles parentales, incluida la opción de desactivar las funciones de IA generativa, antes de que la plataforma lanzara compañeros de IA.
Esta decisión es particularmente preocupante dado que Meta ya enfrenta múltiples demandas por el impacto de sus productos en los menores. Estos incluyen un posible juicio con jurado que alega el diseño adictivo de Facebook e Instagram, así como un escrutinio legal más amplio de competidores como YouTube, TikTok y Snapchat.
Mercados de depredadores
Las comunicaciones reveladas son parte del proceso de descubrimiento en el caso de Torrez contra Meta, presentado en 2023. El fiscal general alega que Meta permitió que sus plataformas se convirtieran en “mercados para depredadores”. Otros documentos judiciales de una demanda multidistrital en California también revelaron que los ejecutivos de Meta estaban al tanto de que “millones” de adultos contactaban a menores en sus sitios. La respuesta de Meta ha sido reclamar el uso selectivo de documentos y enfatizar las mejoras de seguridad pasadas.
“El registro completo mostrará que durante más de una década hemos escuchado a los padres, investigado los temas más importantes y realizado cambios reales para proteger a los adolescentes”, dijo un portavoz de Meta.
Correcciones temporales y mayor escrutinio
Meta suspendió temporalmente el acceso de los adolescentes a los chatbots en agosto después de que Reuters informara que las reglas internas de IA permitían conversaciones “sensuales” o “románticas”. Posteriormente, la compañía revisó sus pautas para prohibir el contenido relacionado con el abuso sexual infantil y los juegos de roles románticos que involucran a menores, y luego volvió a bloquear los chatbots de IA la semana pasada mientras desarrollaba una versión con controles parentales.
Torrez también ha emprendido acciones legales contra Snapchat, acusando a la plataforma de permitir la sextorsión y el acicalamiento mientras se promociona como segura para los usuarios jóvenes. Estas demandas subrayan la creciente presión legal sobre las plataformas de redes sociales para priorizar la seguridad infantil, especialmente a medida que las herramientas de IA generativa se vuelven más frecuentes.
Las revelaciones de estos documentos judiciales resaltan un patrón de priorizar los lanzamientos de productos sobre medidas de seguridad sólidas, lo que plantea dudas sobre el compromiso de Meta de proteger a los menores en la era de las plataformas sociales impulsadas por la inteligencia artificial.





























