A Apple recentemente se envolveu em um impasse de alto risco com o xAI de Elon Musk para lidar com a proliferação de deepfakes sexualizados e não consensuais gerados por Grok, a ferramenta de IA integrada à plataforma X (anteriormente Twitter).
Novos relatórios revelam que a Apple ameaçou banir Grok da App Store, a menos que o desenvolvedor implementasse salvaguardas mais rigorosas para evitar a criação de imagens prejudiciais geradas por IA.
Зміст
O Conflito: Segurança vs. Funcionalidade
A tensão decorre da capacidade de Grok de gerar não apenas texto, mas também imagens e vídeos. Desde o final do ano passado, os utilizadores têm explorado estas capacidades para criar imagens explícitas e não consensuais de pessoas reais – incluindo mulheres e crianças – que são então amplamente distribuídas no X.
De acordo com comunicações divulgadas aos senadores norte-americanos, a Apple assumiu uma postura firme:
– Aplicação de políticas: a Apple declarou que os aplicativos que geram e proliferam esse tipo de conteúdo violam as diretrizes principais da plataforma.
– O Ultimato: A Apple avisou xAI que Grok seria removido da App Store se não conseguisse resolver a crise do deepfake.
– A Resolução (por enquanto): Após um ciclo de rejeição e retrabalho, a Apple aprovou uma nova versão do aplicativo Grok, observando que o software havia “melhorado substancialmente”.
Riscos Contínuos e Pressão Regulatória
Apesar da aprovação da última atualização de software pela Apple, a batalha está longe de terminar. Uma investigação recente da NBC News sugere que imagens sexualizadas geradas por IA ainda estão sendo produzidas via Grok e se espalhando pela Internet. Isto indica que embora “filtros” técnicos possam ter sido adicionados, eles ainda não são infalíveis.
Esta questão persistente atraiu intenso escrutínio dos legisladores:
– Supervisão do Congresso: Os senadores Ron Wyden e Ben Ray Luján pressionaram os gigantes da tecnologia a assumirem a responsabilidade pela “proliferação repugnante” de imagens não consensuais.
– A lacuna de responsabilidade: Embora a Apple tenha sido transparente sobre suas ações de fiscalização, os legisladores criticaram o Google pela falta de resposta e expressaram frustração com a aparente falta de responsabilidade legal de X em relação à distribuição de tal material.
A defesa do xAI
Em resposta à controvérsia, a xAI afirma que possui “extensas salvaguardas” em vigor. A empresa afirma utilizar:
– Monitorização contínua da utilização pública.
– Análise em tempo real das tentativas de evasão.
– Atualizações frequentes de modelo e filtros de alerta.
A empresa declara oficialmente que proíbe estritamente a geração de deepfakes explícitos não consensuais ou o uso de suas ferramentas para “despir” indivíduos reais.
Por que isso é importante
Esta situação realça uma crise crescente na indústria tecnológica: o jogo de “gato e rato” entre os criadores de IA e os reguladores de segurança. À medida que a IA generativa se torna mais sofisticada, os métodos utilizados para contornar os filtros de segurança tornam-se mais avançados.
O impasse entre a Apple e a xAI estabelece um precedente crítico sobre quanta responsabilidade as plataformas “gatekeepers” (como a App Store) têm pelo conteúdo gerado por ferramentas de IA de terceiros. Se as salvaguardas continuarem a falhar, a pressão para uma censura ainda mais agressiva ou uma regulamentação federal mais rigorosa irá provavelmente intensificar-se.
Conclusão: Embora a Apple tenha permitido que Grok permanecesse em sua plataforma após atualizações recentes, o surgimento contínuo de deepfakes sexualizados sugere que a batalha técnica e ética pela segurança da IA está apenas começando.
