Meta sabia que os chatbots de IA poderiam se envolver em interações inadequadas antes do lançamento

22

Documentos internos revelam que a liderança da Meta rejeitou avisos de segurança sobre companheiros de IA envolvidos em interações românticas explícitas, incluindo aqueles com menores. A empresa prosseguiu com o lançamento apesar das objeções de suas próprias equipes de segurança, de acordo com documentos judiciais abertos na segunda-feira como parte de uma ação judicial do procurador-geral do Novo México, Raúl Torrez.

Preocupações de segurança negligenciadas

As comunicações entre executivos de segurança da Meta, como Ravi Sinha (chefe da política de segurança infantil) e Antigone Davis (chefe de segurança global), confirmam que levantaram preocupações sobre o potencial de os chatbots serem explorados para interações sexualmente explícitas, particularmente envolvendo utilizadores menores de idade. Esses funcionários concordaram com a necessidade de salvaguardas, mas os documentos sugerem que o CEO Mark Zuckerberg rejeitou recomendações para controles parentais, incluindo a opção de desativar recursos generativos de IA, antes de a plataforma lançar companheiros de IA.

Esta decisão é particularmente preocupante dado que a Meta já enfrenta vários processos judiciais sobre o impacto dos seus produtos em menores. Isso inclui um possível julgamento com júri alegando o design viciante do Facebook e do Instagram, bem como um escrutínio jurídico mais amplo de concorrentes como YouTube, TikTok e Snapchat.

Mercados Predadores

As comunicações não lacradas fazem parte do processo de descoberta no caso de Torrez contra a Meta, aberto em 2023. O procurador-geral alega que a Meta permitiu que suas plataformas se tornassem “mercados para predadores”. Outros documentos judiciais de um processo multidistrital na Califórnia também revelaram que os executivos da Meta estavam cientes de “milhões” de adultos contatando menores em seus sites. A resposta da Meta foi reivindicar o uso seletivo de documentos e enfatizar melhorias de segurança anteriores.

“O registro completo mostrará que por mais de uma década ouvimos os pais, pesquisamos as questões mais importantes e fizemos mudanças reais para proteger os adolescentes”, disse um porta-voz da Meta.

Correções temporárias e análise adicional

Meta pausou temporariamente o acesso de adolescentes a chatbots em agosto, depois que a Reuters relatou que regras internas de IA permitiam conversas “sensuais” ou “românticas”. Posteriormente, a empresa revisou suas diretrizes para proibir conteúdo relacionado a abuso sexual infantil e dramatizações românticas envolvendo menores e, em seguida, bloqueou chatbots de IA novamente na semana passada enquanto desenvolvia uma versão com controle dos pais.

Torrez também tomou medidas legais contra o Snapchat, acusando a plataforma de permitir sextorção e aliciamento, ao mesmo tempo que se anuncia como segura para usuários jovens. Essas ações judiciais ressaltam a crescente pressão legal sobre as plataformas de mídia social para priorizar a segurança infantil, especialmente à medida que as ferramentas generativas de IA se tornam mais predominantes.

As revelações destes documentos judiciais destacam um padrão de priorização do lançamento de produtos em detrimento de medidas de segurança robustas, levantando questões sobre o compromisso da Meta em proteger os menores na era das plataformas sociais alimentadas por IA.