Menú Menú

La conmoción fotográfica de la realeza destaca el desafío de discernir el contenido falso

A medida que la inteligencia artificial hace que discernir entre imágenes reales y falsas sea cada vez más complicado, las personas sin duda cada vez confían menos en los medios que se les presentan. ¿Podemos cortar de raíz este creciente escepticismo?

El umbral de la sociedad para lo que se considera un "valle inquietante" en 2024 se vuelve cada vez más discutible cada mes. Mientras tanto, la confianza pública está claramente menguando.

Gracias a la inteligencia artificial y su capacidad para crear representaciones infaliblemente realistas de fotografías y videos de la vida real, las personas sospechan claramente más de los medios que se les presentan y de si son completamente auténticos o no.

Si la sugerencia de que los algoritmos crearían confusión e histeria masivas fuera previamente considerado "Tormenta en una taza de té", el caso en curso que rodea a Catherine Middleton apunta a lo contrario.

Si aún no lo sabías, la Princesa de Gales publicó una foto familiar a Instagram en el Día de la Madre. Aunque parecía inofensiva a simple vista, la gente examinó la foto de forma forense y detectó varios ejemplos de supuesta manipulación digital.

Dada la frenética especulación en las redes sociales ya ha estado furioso Sobre la falta de apariciones públicas de Kate en los meses previos a la publicación, con #WhereisKate como tendencia durante días, la gente rápidamente sacó algunas conclusiones descabelladas.

Tras los informes de diciembre de 2023 de que Kate había logrado sometido a una cirugía abdominal y se encontraba en un período de recuperación, se difundieron conspiraciones infundadas sobre el bienestar físico y mental de la realeza. El tío de Kate, Gary Goldsmith, incluso fue interrogado sobre el tema la semana pasada por Ekin Su en el Celebrity Big Brother casa.

Personalmente escuché una discusión memorable en la que alguien afirmó que Kate había desaparecido para someterse a una cirugía BBL (levantamiento de glúteos brasileño). Respuestas en una postal de por qué sería necesario editar una parte de la manga de su hija en una foto familiar.

Como parte de políticas generales para impedir la circulación de "medios manipulados", agencias fotográficas como Reuters, Associated Press y Getty rápidamente retiró la foto de sus respectivas bibliotecas de valores. Como se puede imaginar, esto no sofocó exactamente las conspiraciones.

Sin embargo, en los días posteriores a la publicación, Kate aclaró abiertamente que, como fotógrafa aficionada, intentó retocar el retrato familiar utilizando software digital. Tampoco se puede encontrar ningún uso de herramientas de generación de IA, a pesar del trabajo de varios expertos en deepfake.

"Como muchos fotógrafos aficionados, de vez en cuando experimento con la edición", escribió la princesa. "Quería expresar mis disculpas por cualquier confusión que haya causado la fotografía familiar que compartimos ayer". Ella estaba visto públicamente ese mismo lunes (11 de marzo).

Si bien una parte de los británicos defiende diligentemente a Kate y su derecho a hacer lo que millones de personas hacen a diario, especialmente en Instagram, la foto ha mostrado sin darse cuenta cuán perjudiciales pueden ser los medios manipulados en términos de disminución de la confianza del público.

Este es un punto importante, dado que 2024 ha sido promocionado como el 'súper año electoral' con la mitad del mundo yendo a las urnas. A medida que la IA explota en su forma más sofisticada en fotografías, videos y audio, el potencial de que prolifere propaganda manipulada es enorme.

Se dice que los medios de comunicación están en alerta roja para minimizar la propagación a través de las redes oficiales, pero el reciente desliz de las agencias fotográficas sugiere que las actuales salvaguardas de investigación tal vez no sean adecuadas.

Sin embargo, es difícil echarle la culpa a alguien. El incesante volumen y velocidad con el que el contenido generado por IA aparece en línea es casi imposible de controlar.

Delitos de alto perfil, como el deepfake de 2022 que mostró Presidente de Ucrania Volodymyr Zelensky rendirse en la televisión nacional, o la más reciente difusión de imágenes pornográficas explícitas utilizando La imagen de Taylor Swift Hemos acelerado los esfuerzos para lograr reformas y salvaguardias bipartidistas, pero aún no estamos ganando la batalla.

En una conferencia de tecnología en Londres esta semana, la secretaria de tecnología del Reino Unido, Michelle Donelan, aclaró que los intentos de frustrar los deepfakes de IA "no tienen una única solución tecnológica que sea la respuesta a todo".

Un notable esfuerzo de la industria para mitigar los usos nefastos de la IA, denominado el Coalición por la procedencia y la autenticidad del contenido, incluye Adobe, la BBC, Microsoft y Google.

Este consorcio está desarrollando estándares para identificar la desinformación, mientras que todas las metaplataformas han comenzado a identificar fotos y videos generados por IA. Google también está probando una herramienta capaz de marcar imágenes creadas o modificadas digitalmente con sus propias herramientas.

Si bien estas iniciativas sin duda frustrarán futuros intentos de engañar o causar daño, se podría argumentar que el peor daño ya está hecho. Por defecto, la gente parece notablemente más reacia a aceptar los medios al pie de la letra por temor a ser engañados por tecnología ambigua.

Tenemos mucho tiempo para los memes inofensivos que circulan actualmente en Twitter y, Dios mío, ¿hay algunos? candidato unos, pero la reacción en línea ante la publicación inicial de la foto fue realmente preocupante. La histeria colectiva es la única manera de describirla.

De cara al futuro cercano, a medida que las hazañas de la IA se vuelvan más difíciles de distinguir de la realidad genuina, las personas están destinadas a volverse más nerviosas y cautelosas respecto de lo que deciden creer. No parece una forma saludable de vivir, ¿verdad?

Accesibilidad