Menú Menú

Por qué la aplicación Facemega deepfake es una pendiente resbaladiza

Acceder a la tecnología deepfake es cada vez más fácil. Dado que la mayoría de las personas eligen usarlo por razones siniestras, es difícil ignorar que las consecuencias negativas de la nueva tecnología podrían ser mayores que sus beneficios.

Las consecuencias negativas y peligrosas de las falsificaciones profundas se han discutido acaloradamente desde que la tecnología de IA se abrió paso en la corriente principal en 2017.

Los expertos tienen prevenido que su uso generalizado, combinado con la mejora constante de los sistemas de aprendizaje de IA, "causará estragos en la sociedad" y que "no estamos preparados" para hacer frente a las consecuencias.

Además de los clips monstruosamente reales publicados en el @deepTomCruise cuenta de TikTok, la mayoría de los deepfakes no tardan mucho en mostrar fallas sutiles que nos permiten detectarlos como contenido fabricado.

Para crear un video impecable de alguien que dice algo que en realidad no dijo o que realiza actos que no hizo, se requieren habilidades de edición fenomenales, por ejemplo. También requiere muchos puntos de referencia multimedia para que la IA aprenda los gestos y hábitos de habla del individuo lo suficientemente bien como para ser convincente.

Pero, por supuesto, era solo cuestión de tiempo antes de que esa tecnología avanzara, y antes de que se adaptara para trabajar en las manos de la gente común.

En los últimos días, los usuarios de aplicaciones de edición de fotos y Facebook informaron haber visto anuncios de una aplicación llamada Facemega. El software gratuito para teléfonos inteligentes permite a los usuarios cargar y coser un retrato de prácticamente alguien cara a cara cualquier vídeo de su elección.

Mirando el video de una Emma Watson profundamente falsificada arriba, puedes ver cuán realista es la tecnología.

En serio, fui al concierto holográfico de ABBA aclamado por la crítica en Londres recientemente y los movimientos realistas en ese clip son sorprendentemente similares en calidad.

Pero es difícil pasar por alto la naturaleza sugerente del video, que ilustra perfectamente las oscuras intenciones de los usuarios, y quizás de los propios programadores. Lo que complica aún más las cosas es que este clip se usa como publicidad.

Retuitear la grabación de pantalla del anuncio, un usuario de Twitter dijo: 'Esta es solo una nueva forma de acosar sexualmente a las mujeres. Te está quitando la autonomía corporal y obligándote a usar material sexual no consensuado, que luego puede usarse para humillarte y discriminarte. Por no hablar de los efectos psicológicos.

Alentar el uso de IA profunda falsa para este propósito es obviamente siniestro. Sin embargo, no debería sorprender, ya que los usos más famosos de la tecnología deep fake hasta ahora han sido pornográficos o relacionados con la política.

 

En 2019, solo dos años después de que se creara la tecnología, se informó que al menos el 96 por ciento de todos los videos deepfake encontrados en línea eran pornográficos, según una investigación realizada por Deeptrace.

Numerosos sitios web que alimentan la creación de estos videos alojan exclusivamente pornografía falsa. Muchos clips falsificados subidos a estas plataformas han sido creados por ex vengativos o personas que buscan empañar la imagen de sus enemigos.

Como resultado, los gobiernos de todo el mundo han comenzado a construir marcos legales más sólidos que limitan las formas en que se puede usar la tecnología deepfake. Es cierto que estos tenían que estar informados por casos existentes, razón por la cual los expertos en tecnología advirtieron que no estábamos preparados para sus peligros.

En noviembre de 2022, el gobierno del Reino Unido hizo pornografía ultrafalsa un delito penal encarcelable. Sin embargo, los tribunales solo pueden enjuiciar a las personas en caso de que estas imágenes o videos circulen en línea.

Algunos estados de EE. UU. también han puesto leyes similares en su lugar. Sin embargo, siendo realistas, estas políticas no pueden proteger a nadie de ser insertado en videos gráficos para que otra persona los vea a puerta cerrada.

Este pensamiento, para la gran mayoría de las mujeres, será suficiente para provocar disgusto e ira, si no un escalofrío y una reacción de piel de gallina.

@kennaacting

Desafío de intercambio de caras con #caramega #facemegaapp #intercambio cara #caramagia #edición de video #gracioso #interino

♬ Feliz, optimista, divertido, rock, enérgico - StockSounds

Como se mencionó, los deepfakes también se han utilizado para incitar alboroto político.

Barak Obama ha sido representado insultando a Donald Trump. Mark Zuckerberg tiene estado preparado decir que el único propósito de Facebook es controlar y explotar a los usuarios de la plataforma.

Todos estos se volvieron virales, revelando el nivel de interés, asombro y, en algunos casos, el engaño de la tecnología deepfake.

Usado en otros contextos, las consecuencias podrían ser mucho más peligrosas. Durante los primeros meses de la invasión rusa de Ucrania, videos del presidente Zelensky surgió en el que les dijo a los soldados ucranianos que se rindieran a los soldados rusos.

Afortunadamente, el real El presidente Zelensky recurrió a sus cuentas personales de redes sociales para confirmar que el video había sido manipulado por las fuerzas de la oposición. Recordó a su pueblo que la lucha por su país aún no ha terminado y los instó a permanecer unidos.

Parece como si fueran deepfakes, incluso cuando se usan para hacer una versión digna de risa de la tradición de la reina Isabel II. discurso de navidad, tiende a surgir un sentimiento inquietante dentro de nosotros.

tal vez nosotros sabes qué en el fondo, es mucho más probable que la tecnología se utilice con intenciones maliciosas. Entonces, ¿qué sucederá cuando se vuelva tan avanzado que no podamos distinguir la diferencia entre lo que es realidad y ficción?

Con aplicaciones de descarga gratuita como Facemega, ¿deberíamos preocuparnos de que la tecnología deepfake esté cada vez más disponible a través de nuestros teléfonos inteligentes?

Diría que, desafortunadamente, deberíamos estarlo.

Accesibilidad