Casi un año después de que imágenes de desnudos generadas por IA de chicas de secundaria alteraran a una comunidad en el sur de España, un tribunal de menores este verano sentenció a 15 de sus compañeros de clase a un año de libertad condicional.
Pero la herramienta de inteligencia artificial utilizada para crear los deepfakes dañinos sigue siendo fácilmente accesible en Internet, prometiendo 'desvestir cualquier foto' cargada en el sitio web en segundos.
Ahora un nuevo esfuerzo para cerrar la aplicación y otras similares se está llevando a cabo en California, donde San Francisco presentó esta semana una demanda sin precedentes que los expertos dicen que podría sentar un precedente pero también enfrentará muchos obstáculos.
'La proliferación de estas imágenes ha explotado a un número impactante de mujeres y niñas en todo el mundo', dijo David Chiu, el fiscal electo de la ciudad de San Francisco que presentó el caso contra un grupo de sitios web ampliamente visitados vinculados a entidades en California, Nuevo México, Estonia, Serbia, Reino Unido y otros lugares.
'Estas imágenes se utilizan para intimidar, humillar y amenazar a mujeres y niñas,' dijo en una entrevista con Associated Press. 'El impacto en las víctimas ha sido devastador para su reputación, salud mental, pérdida de autonomía y, en algunos casos, ha llevado a algunas a intentar suicidarse.'
La demanda presentada en nombre de los habitantes de California alega que los servicios violaron numerosas leyes estatales contra prácticas comerciales fraudulentas, pornografía no consentida y abuso sexual infantil. Pero puede ser difícil determinar quién opera las aplicaciones, que no están disponibles en las tiendas de aplicaciones para teléfonos pero aún se encuentran fácilmente en Internet.
Contactado el año pasado por AP, un servicio afirmó por correo electrónico que su 'CEO está basado y se mueve por todo Estados Unidos', pero se negó a proporcionar evidencia o responder a otras preguntas. AP no está nombrando las aplicaciones específicas demandadas para no promocionarlas.
'Hay varios sitios de los que no sabemos en este momento exactamente quiénes son los operadores y dónde operan, pero tenemos herramientas de investigación y autoridad para citar a declarar para investigar eso,' dijo Chiu. 'Y ciertamente utilizaremos nuestros poderes en el curso de esta litigación.'
Muchas de las herramientas se utilizan para crear deepfakes realistas que 'desnudizan' fotos de mujeres adultas vestidas, incluidas celebridades, sin su consentimiento. Pero también han aparecido en escuelas de todo el mundo, desde Australia hasta Beverly Hills en California, donde típicamente chicos crean las imágenes de compañeras de clase que luego circulan a través de las redes sociales.
En uno de los primeros casos ampliamente publicitados en Almendralejo, España, un médico que ayudó a llevarlo a la atención pública después de que su hija fue una de las víctimas dijo estar satisfecho con la gravedad de la sentencia que sus compañeros de clase enfrentan después de una decisión judicial a principios de este verano.
Pero 'no solo es responsabilidad de la sociedad, de la educación, de los padres y las escuelas, sino también de los gigantes digitales que se benefician de toda esta basura,' dijo la Dra. Miriam Al Adib Mendiri en una entrevista el viernes.
Elogió la acción de San Francisco pero dijo que se necesitan más esfuerzos, incluidas de empresas más grandes como Meta Platforms con sede en California y su subsidiaria WhatsApp, que se utilizó para circular las imágenes en España.
Aunque las escuelas y las agencias del orden han intentado castigar a aquellos que hacen y comparten los deepfakes, las autoridades han tenido dificultades para saber qué hacer con las herramientas en sí.
En enero, el ejecutivo de la Unión Europea explicó en una carta a un miembro español del Parlamento Europeo que la aplicación utilizada en Almendralejo 'no parece' estar sujeta a las amplias nuevas normas de la UE para reforzar la seguridad en línea porque no es una plataforma lo suficientemente grande.
Organizaciones que han estado rastreando el crecimiento de material de abuso sexual infantil generado por IA seguirán de cerca el caso de San Francisco.
La demanda 'tiene el potencial de sentar un precedente legal en esta área,' dijo Emily Slifer, directora de políticas en Thorn, una organización que trabaja para combatir la explotación sexual de menores.
Un investigador de la Universidad de Stanford dijo que debido a que muchos de los acusados están basados fuera de los EE. UU., será más difícil llevarlos ante la justicia.
Chiu 'tiene una batalla cuesta arriba con este caso, pero podría lograr que algunos sitios se cierren si los acusados que los operan ignoran la demanda,' dijo Riana Pfefferkorn de Stanford.
Ella dijo que eso podría suceder si la ciudad gana por defecto en su ausencia y obtiene órdenes que afecten a los registradores de nombres de dominio, los hosts web y los procesadores de pagos 'que cerrarían efectivamente esos sitios incluso si sus propietarios nunca aparecen en la litigación.'