El Congreso estadounidense busca frenar el porno artificial del que fue víctima Taylor
Cómo enfrentan legisladores de diferentes estados el fenómeno de las deepfakes similares a las que afectaron a la superestrella del pop.
Incluso antes de que empezaran a circular ampliamente las deepfakes pornográficas y violentas de Taylor Swift, legisladores estatales de todo Estados Unidos habían buscado la manera de acabar con ese tipo de imágenes no consensuadas, tanto de niños como de adultos.
Pero en esta era tan enfocada en todo lo que esté relacionado con Swift, el problema ha llamado aún más la atención desde que la cantante fue objeto de deepfakes, imágenes “ultrafalsas” generadas por computadora que utilizan inteligencia artificial (IA) para que parezcan reales.
Esto es lo que hay que saber sobre lo que han hecho los estados al respecto y lo que están sopesando:
¿DÓNDE APARECEN LAS DEEPFAKES?
La inteligencia artificial llegó a las masas el año pasado como nunca antes, lo que permitió a la gente crear deepfakes cada vez más realistas. Ahora están apareciendo en internet más seguido, y en distintas formas.
Está la pornografía, que se aprovecha de celebridades como Swift para crear imágenes comprometedoras falsas.
Está la música -una canción que sonaba como Drake y The Weeknd cantando obtuvo millones de reproducciones en los servicios de streaming- pero no era de esos artistas. La canción fue retirada de las plataformas.
Y también hay trucos políticos sucios. En este año electoral en Estados Unidos, poco antes de que se celebraran las primarias presidenciales en enero, algunos votantes de New Hampshire reportaron haber recibido llamadas automáticas en las que presuntamente hablaba el presidente Joe Biden y les decía que no se molestaran en emitir su voto. La fiscalía general del estado abrió una investigación al respecto.
Pero una situación mucho más común es la pornografía que utiliza la imagen de personas no famosas, inclusive de menores de edad.
¿QUÉ SE HIZO HASTA AHORA?
Las deepfakes son sólo un área del complicado campo de la IA que los legisladores están tratando de averiguar si debe ser abordada y cómo hacerlo.
Por lo menos 10 estados han promulgado leyes relacionadas con las deepfakes. Varias medidas más están bajo consideración este año en los Congresos estatales del país.
Georgia, Hawai, Texas y Virginia tienen leyes que penalizan las deepfakes pornográficas creadas sin consentimiento. California e Illinois han dado a las víctimas el derecho de demandar a aquellos que generen imágenes en las que utilizan su imagen.
Minnesota y Nueva York también. La ley de Minnesota también abarca el uso de deepfakes en la política.
¿EXISTEN SOLUCIONES TECNOLÓGICAS?
Siwei Lyu, profesor de informática de la Universidad de Buffalo, dijo que se está trabajando en varios enfoques, pero que ninguno de ellos es perfecto. Uno es utilizar algoritmos para detectar las deepfakes, los cuales pueden ser usados para marcar las imágenes manipuladas en sitios como las plataformas de redes sociales.
Otro -que Lyu comentó que está en desarrollo pero aún no es utilizado ampliamente- es insertar códigos en el contenido que la gente sube, los cuales señalarían si son reutilizados en la creación de contenido por medio de IA.
Y un tercer mecanismo sería requerir a las compañías que ofrezcan herramientas de IA que incluyan marcas de agua digitales para identificar contenido generado con sus aplicaciones.
Dijo que tiene sentido hacer rendir cuentas a esas compañías por la manera en que la gente utilice sus herramientas, y las empresas pueden a su vez hacer cumplir acuerdos alcanzados con el usuario contra la creación de deepfakes problemáticas.
¿QUÉ DEBERÍA INCLUIR UNA LEY?
Un modelo normativo propuesto por el Consejo Estadounidense de Intercambio Legislativo aborda la pornografía, pero no la política.
Ese grupo conservador y proempresarial está alentando a los estados a hacer dos cosas: penalizar la posesión y distribución de deepfakes que muestren a menores en actos sexuales, y permitir a las víctimas demandar a la gente que distribuya deepfakes no consensuadas que muestren conductas sexuales.
“Les recomendaría a los legisladores que empiecen con una corrección obligatoria pequeña que pueda resolver un problema tangible”, expresó Jake Morabito, que dirige el grupo de trabajo de comunicaciones y tecnología para el Consejo.
Advirtió que los legisladores no deberían ir tras la tecnología que puede ser utilizada para crear las deepfakes, ya que eso podría acabar con la innovación para otros usos importantes.