La semana pasada, se compartieron en Twitter (X) imágenes explícitas de Taylor Swift creadas con IA, y algunas publicaciones obtuvieron millones de visitas. El consiguiente pánico legal podría tener ramificaciones para el uso de imágenes de celebridades y de imágenes de IA en general.
Taylor Swift fue víctima de la generación de imágenes mediante IA la semana pasada. Se crearon imágenes pornográficas explícitas sin su consentimiento y miles de usuarios las compartieron a través de X (formalmente Twitter).
Las publicaciones fueron vistas decenas de millones de veces antes de ser eliminadas y eliminadas de la plataforma.
Las consecuencias posteriores fueron rápidas: X modificó sus filtros de censura durante el fin de semana para eliminar cualquier mención de las imágenes. Los políticos estadounidenses son pidiendo nuevas leyes criminalizar los deepfakes como resultado directo, y Microsoft se ha comprometido a impulsar más barreras de seguridad en su aplicación Designer IP para evitar futuros incidentes.
La publicación de imágenes de desnudos no consensuales (NCN) está estrictamente prohibida en X y tenemos una política de tolerancia cero hacia dicho contenido. Nuestros equipos están eliminando activamente todas las imágenes identificadas y tomando las medidas adecuadas contra las cuentas responsables de publicarlas. Estamos de cerca…
— Seguridad (@Seguridad) Enero 26, 2024
Estos últimos desarrollos en la controversia sobre los deepfakes surgen tras muchos años de contenido pornográfico poco ético en línea, la mayoría de los cuales despojan a las víctimas de autonomía sobre su imagen. Es un problema que preocupa tanto a las celebridades como a la gente común, a medida que las herramientas de inteligencia artificial se vuelven más comunes y accesibles para que las use cualquiera.
El alto perfil de Taylor y su devota base de seguidores han ayudado a llevar este tema a la vanguardia de las noticias actuales y, sin duda, alertarán a los responsables políticos, las plataformas de redes sociales y las empresas de tecnología de una manera que no hemos visto hasta ahora.
Si bien hace mucho tiempo que se deberían haber implementado cambios y leyes más estrictas, es probable que veamos un progreso muy necesario en las próximas semanas y meses. Las ramificaciones podrían ser de gran alcance y afectar la generación de imágenes de IA en general, no sólo las imágenes de celebridades o el contenido explícito.
¿Cómo podrían afectar las consecuencias legales a la generación de imágenes de IA en el futuro?
Entonces, ¿qué específicamente ¿Qué está sucediendo legalmente para combatir el contenido de IA deepfake de Taylor?
El martes, un grupo bipartidista de senadores estadounidenses presentó una factura eso criminalizaría la difusión de imágenes sexualizadas y no consensuadas generadas por la IA. Esto permitiría a las víctimas solicitar una sanción civil contra "las personas que produjeron o poseyeron la falsificación con la intención de distribuirla".
Además, cualquier persona que reciba imágenes o material sabiendo que no fueron creados con consentimiento también se vería afectado.
Dick Durbin, líder de la mayoría del Senado de Estados Unidos, y los senadores Lindsey Graham, Amy Klobuchar y Josh Hawley están detrás del proyecto de ley. Se llama 'Ley de interrupción de imágenes falsificadas explícitas y ediciones no consensuales de 2024', o 'Ley de Desafío' para abreviar.
Las fotos explícitas de Taylor también llegaron a la Casa Blanca. La secretaria de prensa Karine Jean-Pierre dijo a ABC News el viernes que el gobierno estaba "alarmado por los informes sobre imágenes en circulación".
Todo esto se deriva de una alternativa, proyecto de ley llamado Ley No FRAUDE AI que se presentó el 10 de eneroth, 2024.
Esto tiene como objetivo crear una "protección básica federal contra el abuso de la IA" y defender los derechos de la Primera Enmienda en línea. Pone especial énfasis en los derechos de un individuo a su imagen y voz contra las falsificaciones de IA. Si se aprueba, la Ley contra el FRAUDE en IA "reafirmaría que la imagen y la voz de todas las personas están protegidas y otorgaría a las personas el derecho a controlar el uso de sus características de identificación".
Por supuesto, la protección legal es una cosa, en realidad hacer cumplir hacerlo a nivel de toda la red es otra. También hay La polémica cuestión de la libertad de expresión. y expresión – y determinar dónde reside el castigo.
¿Deberían restringirse o castigarse las plataformas de software de mediación que hacen posibles las imágenes de IA? No limitamos Photoshop, por ejemplo, a pesar de ser una herramienta destacada para crear imágenes engañosas. ¿Dónde deberían situarse legalmente las empresas de IA en este caso? Actualmente no está claro.
Los legisladores proponen un proyecto de ley contra la pornografía con IA no consensuada después de la controversia de Taylor Swift https://t.co/3PS8h0ULxO
- The Verge (@verge) Enero 31, 2024