Menú Menú

Deepfakes: una amenaza creciente para la democracia

En 2019, los deepfakes evolucionaron de un pasatiempo relativamente jovial a una seria amenaza ética, difamando a las celebridades e interrumpiendo la política.

En caso de que no esté familiarizado con el término 'deepfake', esencialmente se refiere a la manipulación de video y la replicación de características humanas utilizando software centrado en los principios de inteligencia artificial, seguimiento facial y aprendizaje profundo.

En términos simples, es el proceso de imitar los rasgos faciales y / o la voz de uno para parecer / sonar real.

Las redes que constan de nodos interconectados ejecutan cálculos de forma autónoma sobre los datos de entrada. Con suficiente "entrenamiento" del usuario, estos nodos comienzan a organizarse para completar una tarea específica del usuario. Esto es deep learning, y se utiliza principalmente para unir cierta naturaleza de video con imágenes de celebridades, manifestando de manera convincente contenido falso sobre la marcha.

Si bien los programas de esta naturaleza pueden haber comenzado como pasatiempos inofensivos en las últimas páginas de Internet, ahora han sido catapultados a la corriente principal; rediseñado como un arma difamatoria para apuntar a celebridades y figuras políticas prominentes.


Entonces, ¿dónde empezó todo?

El término 'deepfake' proviene de un usuario anónimo de Reddit con el mismo alias que saltó a la fama en 2017 debido a una serie de videos pornográficos de celebridades falsos. Aparte de la obvia lata de gusanos abierta por este contenido invasivo y perturbador, proporcionaría un vistazo a ramificaciones más amplias de la tecnología, que aún se está abordando hoy.

Marcó la primera instancia en la que un individuo pudo crear rápida y simplemente una imitación humana convincente y de alta calidad con medios fácilmente disponibles. Ciertamente no fue el primer contenido 'superpuesto' que viola Internet, pero fue la primera instancia en la que se creó tan rápidamente utilizando gráficos para consumidores.

'deepfake' alojó estas imitaciones de celebridades dentro de un solo subreddit que él creó, y poco después de su concepción, los miembros comenzaron a contribuir con sus propias ediciones, en su mayoría con clips de películas divertidas. Toda una sección se dedicó a manifestar al actor siempre memeable Nicholas Cage en películas y programas de televisión al azar.


El turno peligroso

As muchos predijeron Durante el auge inicial de los deepfakes, la tecnología pasaría rápidamente a incitar prácticas más dudosas desde el punto de vista ético.

En junio de 2018, un programa informático para la creación de deepfake, denominado fakeapp, saltó a la fama después de estar disponible para su descarga: utilizó el mismo software originalmente vendido por el deepfake de Reddit.

Poco después, surgieron varios videos que involucraban a políticos con la intención de engañar a las personas para que crearan hechos y declaraciones ficticios. En particular, un partido socialista flamenco llamado spa publicó un video en su cuenta de Twitter y Facebook que muestra que Donald Trump parece burlarse de Bélgica por permanecer en el acuerdo climático de París.

Si bien la mayoría de los espectadores olfatearon la falsificación, aquellos que no estaban al tanto de la falsificación creí que el video era real. Después de esta revelación, numerosas plataformas sociales, incluidas Twitter, Discord y Gfycat, prohibieron explícitamente los deepfakes y todas las comunidades asociadas, y Reddit siguió su ejemplo poco después ... y Reddit rara vez dice "no" a nada.

En julio de 2018, una entrevista editada con un representante liberal de EE. UU. Alejandría Ocasio-Cortez se volvió viral, acumulando más de 4 millones de visitas en YouTube. La entrevista original fue modificada para insertar un entrevistador diferente, haciendo parecer que Ocasio-Cortez estaba luchando por responder preguntas básicas. Esto parecía menos un uso divertido de la tecnología y más una estratagema para manchar la reputación de Ocasio-Cortez.

Este ejemplo en particular, aunque no es un deepfake convencional, marcó el crecimiento de la tecnología en otras formas de alteración de video, lo que hace que los deepfakes sean aún más difíciles de exponer.

En mayo de 2019, posiblemente la difamación digital más efectiva de un funcionario del gobierno apareció en Facebook. Un video editado con el presidente demócrata Nancy Pelosi, obtuvo más de 2 millones de visitas. Su discurso se redujo drásticamente, lo que lo hizo parecer arrastrado, lo que llevó a los espectadores a cuestionar el estado mental de Pelosi.

El abogado personal de Trump, Rudy Giuliani, compartió el video creyendo que era real, lo que confirma aún más los posibles peligros del software deepfake.

Para disgusto de Guiliani, los moderadores de Facebook se negó a quitar la falsificación debido a las políticas relacionadas con la libre expresión, optando por insertar información contextual en el video. Irónicamente, el cerebro de Facebook, Mark Zuckerberg, se convertiría en la próxima víctima de la falsificación.

El joven multimillonario fue utilizado para promover una exhibición de deepfakes llamada Spectre creada por el artista Bill Poster, con la caricatura digital de Zuck alabando a Spectre, exclamando que "se lo debe todo [su éxito]".

No es sorprendente que Facebook rápidamente cambió su postura en el proceso de filtración de videos falsificados, marcando la publicación, reduciendo drásticamente su distribución y audiencia en su plataforma.


Que se esta haciendo

Este mes, los miembros de la Cámara de Representantes de EE. UU. Escucharon oficialmente testimonio en torno a la reciente afluencia de deepfakes y examinó las posibles amenazas a la seguridad nacional planteadas por el contenido alterado por IA.

Expertos en tecnología respaldados por El Pentagono se han implementado específicamente para desarrollar medios para detectar y marcar deepfakes, pero los resultados han sido mixtos. En el momento en que se revela cualquier funcionamiento interno de las tecnologías de detección (principalmente el seguimiento facial), los falsificadores ganan otro punto de apoyo para evitar la detección. La naturaleza misma de la IA es revisar y adaptarse después de todo.

El plan de prevención más infalible en la actualidad es abordar la legislación y las políticas de las redes anfitrionas, con funcionarios federales presionando por un movimiento en todo el país para prohibir la desinformación digital, y específicamente las falsificaciones profundas, para 2020.


La división de opiniones

Si bien se están tomando medidas obvias para prevenir deepfakes, una gran parte de los comunidad online Sentimos que esta represión amenaza nuestro derecho a la libertad de expresión. La tecnología no se utiliza exclusivamente para actividades nefastas, a menudo se usa para sátira, arte, crítica y comedia. Aún así, los funcionarios del gobierno afirman que las amenazas potenciales superan con creces su aplicación creativa.

Sin embargo, la postura firme del gobierno y la falta de margen de maniobra es comprensible si se consideran las graves implicaciones que podrían tener los deepfakes para nuestro sentido de la democracia.

Para la generación anterior, que en gran medida ignora estas tecnologías, estos deepfakes posiblemente podrían influir en sus decisiones en la instauración de representantes gubernamentales. Por ejemplo, un video falso podría aparecer de Joe Biden siendo despectivo hacia los refugiados, disuadiendo a los candidatos de votar a su favor. Una vez que se cambian las narrativas políticas, es notoriamente difícil recuperarlas.

Además, los videos adulterados marcados toman tiempo para filtrarse a través de los sistemas de seguridad de la mayoría de las plataformas de redes sociales, permaneciendo activos en los cronogramas de las personas. Es concebible entonces que los oportunistas puedan impulsar sus agendas personales con videos falsos en vísperas de elecciones importantes, y todos estaríamos felizmente inconscientes de este hecho hasta después de la toma de posesión.

También hay implicaciones que van más allá de la política. A medida que la tecnología se vuelve más avanzada, requiriendo cada vez menos imágenes para replicar los rasgos faciales, los deepfakes podrían convertirse en el método de difamación de referencia. Piénselo: tenemos cientos de fotos en nuestros canales de redes sociales.

Ya sea que se trate de enviar una solicitud de video falsa a un trabajo en nombre de otra persona, una perorata despectiva / discurso de odio a YouTube o incluso un mensaje de suicidio falso, el alcance para dañar el contenido en línea se multiplicará por diez.

Este enigma seguramente se desarrollará a medida que las plataformas lidien con problemas de consentimiento, libertad de expresión y la prevención de la difusión de información errónea, y estaremos allí para hablar sobre cambios futuros.

¿Cuál es tu postura personal sobre los deepfakes? ¿Deberían eliminarse por completo o simplemente regularse con más cuidado? Háznoslo saber en los comentarios.

Accesibilidad