Apple participó recientemente en un enfrentamiento de alto riesgo con xAI de Elon Musk para abordar la proliferación de deepfakes sexualizados y no consensuales generados por Grok, la herramienta de inteligencia artificial integrada en la plataforma X (anteriormente Twitter).
Nuevos informes revelan que Apple amenazó con prohibir Grok en la App Store a menos que el desarrollador implementara salvaguardias más estrictas para evitar la creación de imágenes dañinas generadas por IA.
Зміст
El conflicto: seguridad versus funcionalidad
La tensión surge de la capacidad de Grok para generar no sólo texto, sino también imágenes y vídeos. Desde finales del año pasado, los usuarios han explotado estas capacidades para crear imágenes explícitas y no consensuadas de personas reales (incluidos mujeres y niños) que luego se distribuyen ampliamente en X.
Según comunicaciones reveladas a los senadores estadounidenses, Apple adoptó una postura firme:
– Aplicación de políticas: Apple declaró que las aplicaciones que generan y proliferan dicho contenido violan las pautas principales de su plataforma.
– El ultimátum: Apple advirtió a xAI que Grok sería eliminado de la App Store si no abordaba la crisis de los deepfake.
– La resolución (por ahora): Después de un ciclo de rechazo y reelaboración, Apple aprobó una nueva versión de la aplicación Grok y señaló que el software había “mejorado sustancialmente”.
Riesgos continuos y presión regulatoria
A pesar de la aprobación de Apple de la última actualización de software, la batalla está lejos de terminar. Una investigación reciente de NBC News sugiere que las imágenes sexualizadas generadas por IA todavía se producen a través de Grok y se difunden por Internet. Esto indica que, si bien es posible que se hayan agregado “filtros” técnicos, todavía no son infalibles.
Este problema persistente ha provocado un intenso escrutinio por parte de los legisladores:
– Supervisión del Congreso: Los senadores Ron Wyden y Ben Ray Luján han presionado a los gigantes tecnológicos para que asuman responsabilidad por la “repugnante proliferación” de imágenes no consensuadas.
– La brecha de responsabilidad: Si bien Apple ha sido transparente sobre sus acciones de cumplimiento, los legisladores han criticado a Google por la falta de respuesta y han expresado su frustración por la supuesta falta de responsabilidad legal de X con respecto a la distribución de dicho material.
La defensa de xAI
En respuesta a la controversia, xAI sostiene que cuenta con “amplias salvaguardias”. La empresa afirma utilizar:
– Seguimiento continuo del uso público.
– Análisis en tiempo real de intentos de evasión.
– Actualizaciones frecuentes de modelos y filtros rápidos.
La empresa afirma oficialmente que prohíbe estrictamente la generación de deepfakes explícitos no consentidos o el uso de sus herramientas para “desnudar” a personas reales.
Por qué esto es importante
Esta situación pone de relieve una crisis creciente en la industria tecnológica: el juego del gato y el ratón entre los desarrolladores de IA y los reguladores de seguridad. A medida que la IA generativa se vuelve más sofisticada, los métodos utilizados para eludir los filtros de seguridad se vuelven más avanzados.
El enfrentamiento entre Apple y xAI sienta un precedente crítico sobre cuánta responsabilidad tienen las plataformas “guardianes” (como la App Store) por el contenido generado por herramientas de inteligencia artificial de terceros. Si las salvaguardias siguen fallando, es probable que se intensifique la presión para una censura aún más agresiva o una regulación federal más estricta.
Conclusión: Si bien Apple ha permitido que Grok permanezca en su plataforma luego de actualizaciones recientes, la continua aparición de deepfakes sexualizados sugiere que la batalla técnica y ética sobre la seguridad de la IA apenas comienza.
