Menu Menu

L'utilizzo non divulgato dell'intelligenza artificiale di Netflix accende il dibattito sulla manipolazione dei media

Netflix è stata criticata per aver incluso immagini di intelligenza artificiale non divulgate in un nuovo documentario su un vero crimine. La reazione negativa ha innescato importanti conversazioni sulla manipolazione dei media. 

Che ti piaccia, la temi o la detesti, l’intelligenza artificiale è ormai parte della nostra vita quotidiana. Dall’istruzione all’intrattenimento, l’intelligenza artificiale è destinata a continuare a crescere, plasmando quasi ogni aspetto della nostra interazione con i media.

Ma questi cambiamenti richiedono limiti. Sia l’imprevedibilità dell’IA che la sua crescita senza precedenti la rendono uno strumento pericoloso se non utilizzata con delicatezza. E negli ultimi giorni, due grandi società di media sono state criticate per non aver fatto proprio questo.

Pochi giorni dopo lo studio A24 è stato criticato per l'utilizzo Poster dell'intelligenza artificiale Per promuovere il nuovo film 'Civil War', Netflix ha avviato un acceso dibattito sull'uso dell'intelligenza artificiale in TV e nei film, soprattutto quando gli spettatori non ne sono informati.

Si è scoperto che il servizio di streaming ha utilizzato immagini di intelligenza artificiale dell'assassino condannato per omicidio Jennifer Han, come parte del loro nuovo documentario sul vero crimine "What Jennifer Did". Il film segue la polizia mentre indaga sulla brutale uccisione della madre di Han e sul tentato omicidio di suo padre, inizialmente credendo che Jennifer fosse una testimone innocente.

Alla fine ha confessato di aver orchestrato un'assunzione per uccidere i suoi genitori nel tentativo di ereditare i loro soldi.

Dopo circa 28 minuti dall'inizio del film, l'amica del liceo di Pan, Nam Nguyen, la descrive come "è fantastico parlare con lei".

"Jennifer, si sa, era frizzante, felice, sicura di sé e molto genuina", spiega, mentre tre immagini di Pan appaiono sullo schermo.

Da allora le foto sono state esaminate attentamente, poiché gli oggetti sullo sfondo appaiono distorti, così come i dettagli nelle mani, nelle orecchie e nei capelli di Jennifer.

Gli spettatori hanno accusato Netflix di utilizzare l'intelligenza artificiale per manipolarli, presentando una falsa idea di Jennifer Han che si aggiungerebbe al drammatico climax del film.

"Utilizzare l'intelligenza artificiale per manipolare lo spettatore durante i contenuti di saggistica è sicuramente un male di prima qualità", ha detto uno utente Instagram. Il consenso schiacciante tra il pubblico di Netflix è stato negativo, e molti hanno sottolineato l'ironia nell'usare informazioni false durante un film per scoprire "la verità".

Sebbene Netflix non abbia ancora commentato la reazione negativa, la decisione di utilizzare immagini generate dall’intelligenza artificiale senza divulgazione solleva seri interrogativi etici sulle responsabilità dei creatori di contenuti.

Presentando le immagini generate dall’intelligenza artificiale come reali, i creatori di contenuti rischiano di distorcere la verità e perpetuare la disinformazione. Nel caso di "What Jennifer Did", gli spettatori potrebbero essersi formati una percezione imprecisa di Jennifer Han sulla base delle immagini inventate presentate nel documentario.

La manipolazione delle immagini attraverso l’intelligenza artificiale solleva anche preoccupazioni sull’erosione della fiducia nei media. Quando gli spettatori non riescono più a distinguere tra immagini reali e artificiali, la credibilità dei media mainstream viene messa in discussione. La fiducia è il fondamento del giornalismo e del cinema, e incidenti come questo servono solo a minarla.

 

Visualizza questo post su Instagram

 

Un post condiviso da MODERNNOTORIETY (@modernnotoriety)

Alcuni utenti di Internet hanno suggerito che l’ascesa dell’intelligenza artificiale nella cultura popolare, in particolare la sua comparsa non dichiarata nei contenuti documentari, segnali la fine dell’era dell’informazione.

Sebbene siano attualmente in vigore leggi per regolamentare l’uso dell’intelligenza artificiale negli Stati Uniti e in Europa, attualmente esiste nessuna normativa specifica che regolano l'uso di immagini o video AI in documentari o altri contenuti.

L’uso incontrollato dell’intelligenza artificiale può avere un impatto anche su coloro che lavorano nel settore. Mentre la tecnologia dell’intelligenza artificiale continua ad avanzare, cresce il timore che i ruoli tradizionali nel cinema, come truccatori e specialisti di effetti visivi, possano diventare obsoleti.

E se le immagini generate dall’intelligenza artificiale diventassero la norma, potrebbero avere profonde implicazioni per il futuro dell’occupazione nei media di intrattenimento.

Quando le aziende non riescono a informare il proprio pubblico sulla presenza dell’intelligenza artificiale all’interno dei contenuti, la capacità del pubblico di distinguere tra ciò che è reale e ciò che è falso viene ridotta. Pertanto, la validità dell’intelligenza artificiale come strumento di intrattenimento è consolidata nella mente dei creatori di contenuti.

I produttori e le società di media hanno la responsabilità di divulgare l'uso di immagini artificiali e di garantire che gli spettatori siano consapevoli di eventuali manipolazioni o alterazioni apportate alle immagini. La trasparenza promuove la fiducia e la responsabilità, elementi essenziali per mantenere l’integrità dei contenuti che consumiamo ogni giorno.

Accessibilità