Menú Menú

Imágenes explícitas de IA de Taylor Swift causan pánico legal

La semana pasada, se compartieron en Twitter (X) imágenes explícitas de Taylor Swift creadas con IA, y algunas publicaciones obtuvieron millones de visitas. El consiguiente pánico legal podría tener ramificaciones para el uso de imágenes de celebridades y de imágenes de IA en general.

Taylor Swift fue víctima de la generación de imágenes mediante IA la semana pasada. Se crearon imágenes pornográficas explícitas sin su consentimiento y miles de usuarios las compartieron a través de X (formalmente Twitter).

Las publicaciones fueron vistas decenas de millones de veces antes de ser eliminadas y eliminadas de la plataforma.

Las consecuencias posteriores fueron rápidas: X modificó sus filtros de censura durante el fin de semana para eliminar cualquier mención de las imágenes. Los políticos estadounidenses son pidiendo nuevas leyes criminalizar los deepfakes como resultado directo, y Microsoft se ha comprometido a impulsar más barreras de seguridad en su aplicación Designer IP para evitar futuros incidentes.

Estos últimos desarrollos en la controversia sobre los deepfakes surgen tras muchos años de contenido pornográfico poco ético en línea, la mayoría de los cuales despojan a las víctimas de autonomía sobre su imagen. Es un problema que preocupa tanto a las celebridades como a la gente común, a medida que las herramientas de inteligencia artificial se vuelven más comunes y accesibles para que las use cualquiera.

El alto perfil de Taylor y su devota base de seguidores han ayudado a llevar este tema a la vanguardia de las noticias actuales y, sin duda, alertarán a los responsables políticos, las plataformas de redes sociales y las empresas de tecnología de una manera que no hemos visto hasta ahora.

Si bien hace mucho tiempo que se deberían haber implementado cambios y leyes más estrictas, es probable que veamos un progreso muy necesario en las próximas semanas y meses. Las ramificaciones podrían ser de gran alcance y afectar la generación de imágenes de IA en general, no sólo las imágenes de celebridades o el contenido explícito.


¿Cómo podrían afectar las consecuencias legales a la generación de imágenes de IA en el futuro?

Entonces, ¿qué específicamente ¿Qué está sucediendo legalmente para combatir el contenido de IA deepfake de Taylor?

El martes, un grupo bipartidista de senadores estadounidenses presentó una factura eso criminalizaría la difusión de imágenes sexualizadas y no consensuadas generadas por la IA. Esto permitiría a las víctimas solicitar una sanción civil contra "las personas que produjeron o poseyeron la falsificación con la intención de distribuirla".

Además, cualquier persona que reciba imágenes o material sabiendo que no fueron creados con consentimiento también se vería afectado.

Dick Durbin, líder de la mayoría del Senado de Estados Unidos, y los senadores Lindsey Graham, Amy Klobuchar y Josh Hawley están detrás del proyecto de ley. Se llama 'Ley de interrupción de imágenes falsificadas explícitas y ediciones no consensuales de 2024', o 'Ley de Desafío' para abreviar.

Las fotos explícitas de Taylor también llegaron a la Casa Blanca. La secretaria de prensa Karine Jean-Pierre dijo a ABC News el viernes que el gobierno estaba "alarmado por los informes sobre imágenes en circulación".

Todo esto se deriva de una alternativa, proyecto de ley llamado Ley No FRAUDE AI que se presentó el 10 de eneroth, 2024.

Esto tiene como objetivo crear una "protección básica federal contra el abuso de la IA" y defender los derechos de la Primera Enmienda en línea. Pone especial énfasis en los derechos de un individuo a su imagen y voz contra las falsificaciones de IA. Si se aprueba, la Ley contra el FRAUDE en IA "reafirmaría que la imagen y la voz de todas las personas están protegidas y otorgaría a las personas el derecho a controlar el uso de sus características de identificación".

Por supuesto, la protección legal es una cosa, en realidad hacer cumplir hacerlo a nivel de toda la red es otra. También hay La polémica cuestión de la libertad de expresión. y expresión – y determinar dónde reside el castigo.

¿Deberían restringirse o castigarse las plataformas de software de mediación que hacen posibles las imágenes de IA? No limitamos Photoshop, por ejemplo, a pesar de ser una herramienta destacada para crear imágenes engañosas. ¿Dónde deberían situarse legalmente las empresas de IA en este caso? Actualmente no está claro.


¿Por qué deberíamos preocuparnos por la generación de imágenes de IA no consensuadas? 

Hay un montón de problemas que surgen con la generación de imágenes de IA y la falsificación profunda no consensuada, la mayoría de los cuales probablemente sean obvios.

La mayor parte de la pornografía generada por IA es de mujeres y se realiza sin el consentimiento del sujeto. Un estudio 2019 descubrió que el 96% de todos los videos deepfake eran explícitos, presentaban mujeres y se hacían sin aprobación. Eso es un enorme mayoría e indica que el contenido generado por IA es en gran medida arraigado en una misoginia abierta y acoso sexual.

Para decirlo claramente, los marcos legales no han logrado mantenerse al día con el contenido de IA y los riesgos asociados con él. Las mujeres están cada vez más amenazadas, ya sean celebridades de primer nivel como Taylor Swift o miembros del público sin pretensiones. Este riesgo potencial también aumenta continuamente a medida que el software se vuelve más fácil de usar y más disponible.

Ya sabemos que existen muchas comunidades en línea, a menudo a través de foros como 4chan, Telegram y Discord, que generan y hacen circular contenido pornográfico de mujeres famosas sin permiso. No está regulado y es casi imposible reprimirlo por completo, independientemente de cualquier proyecto de ley bien intencionado del Congreso de los Estados Unidos.

Todo esto sin considerar las consecuencias de las imágenes y los videos ultrafalsos en nuestras esferas políticas, donde la desinformación probablemente se volverá aún más rampante de lo que ya está. Sin una responsabilidad legal adecuada por el robo de identidad en línea, ¿cómo podemos evitar que una celebridad diga o haga algo?

Ya es bastante difícil lograr que nuestros abuelos analicen lo que es real en línea y lo que no. Ahora que la IA se ha disparado en audio, video e incluso redacción, comprender el contenido humano y el contenido de los robots es cada vez más importante. casi un campo minado incomprensible. Está fallando a las mujeres, erosionando la propiedad sobre nuestra propia imagen y, en última instancia, dañando nuestra capacidad de comunicarnos en línea.

Puede que Taylor Swift esté encabezando este tema por ahora, pero la realidad es que el contenido deepfake y la pornografía basada en IA han estado circulando por Internet durante mucho tiempo, pudriéndose en rincones sórdidos de los foros y permitiéndose que no se controlen. Es un problema enorme y sustancial que no se puede solucionar con un solo proyecto de ley o moción.

Es necesario hacer más para proteger todos, no sólo los ultrafamosos.

Accesibilidad