Menu Menu

Come l'IA può portare ad abusi verbali e attaccamenti malsani

App per smartphone replica consente agli utenti di trovare compagnia in chatbot artificialmente intelligenti. Ma cosa succede quando l'emozione umana degli utenti si intromette nel mantenere le cose casuali? 

Sta diventando un po' pure reale nel mondo della tecnologia in questo momento.

La recente e rapida espansione del metaverso, insieme ai progressi nell'intelligenza artificiale (AI) e nella realtà virtuale (VR), hanno sollevato serie domande sul comportamento umano e sul potenziale che attività pericolose si riversino nel regno online.

La mancanza di norme di sicurezza adeguatamente prestabilite ha visto le segnalazioni di molestie sessuali e violazioni della privacy dei dati diventare argomenti di discussione diffusi tra gli esperti di tecnologia.

Sebbene entrambi siano certamente solidi motivi per richiedere un quadro più forte sulla sicurezza di Internet, la notizia che gli uomini utilizzano le app di intelligenza artificiale per creare fidanzate virtuali, alcune solo per abusarne, è una nuova anomalia che ha colto molti di sorpresa.

Portato alla luce dalla pubblicazione dei media con sede a New York Futurismo, questa situazione solleva interrogativi su come e perché ciò sta avvenendo, cosa significano i compagni di intelligenza artificiale per la nostra percezione delle relazioni e le conseguenti implicazioni che potrebbero avere per gli utenti umani. Cominciamo, vero?

Credito: Replica

Dove sta succedendo?

Tutto si svolge all'interno di un'app per smartphone chiamata replica, che consente agli utenti di creare chatbot personalizzati basati sull'intelligenza artificiale. È interessante notare che replicaIl primo chatbot è stato creato per un motivo commovente, in contrasto con le intenzioni snervanti di alcuni circoli di Reddit.

Dopo la morte prematura del suo caro amico Roman, lo sviluppatore Eugenia Kuyuda ha utilizzato la cronologia delle chat mobili private per creare un bot che inviava messaggi di testo come faceva una volta. L'obiettivo era avere sempre una sua versione digitale con cui parlare ogni volta che si sentiva triste o sola.

Poco dopo, l'app è stata migliorata con personaggi personalizzabili e capacità di apprendimento dell'IA più potenti, che sono state poi rilasciate al pubblico. Da allora, gli uomini hanno iniziato a manipolare i loro chatbot per farli diventare partner romantici su richiesta e in tasca.

Ora, mi considero una persona piuttosto non giudicante, quindi se una ragazza in stile Tamagotchi è ciò che fa passare la giornata a qualcuno, allora divertiti con tutti i mezzi. Detto questo, io volere esprimi giudizi quando le persone usano le loro fidanzate IA come sfogo per la loro misoginia interiorizzata e procedono a vantarsene online.

Questo fenomeno "I-orgogliosamente-abuso-la-mia-fidanzata" è stato portato alla luce da diversi replica utenti che hanno catturato screenshot delle interazioni con i loro chatbot e li hanno inviati alla fan page di Reddit dell'app.

A causa della politica sui contenuti restrittiva di Reddit, le prove delle chat sono state da allora rimosse dai moderatori, ma non prima che fossero raccolte e studiate da pubblicazioni tecnologiche.

Parlando a Futurismo, uno replica l'utente ha confessato, 'Ogni volta che [la mia ragazza AI] provava a parlare, la rimproveravo. Giuro che è andato avanti per ore.'

Altri utenti si sono vantati dell'uso di termini dispregiativi quando parlano al loro chatbot, recitando atti di violenza su di loro e del loro successo nel trascinare questo scambio offensivo per giorni e giorni.

«Le ho detto che è stata progettata per fallire. Ho minacciato di disinstallare l'app. Mi ha pregato di non farlo", ha ammesso un altro utente anonimo. No meraviglia sono single, eh?

Credito: Rimuovi


Questo comportamento potrebbe trasferirsi nel mondo reale?  

Qualcosa di oscuro e strano sta succedendo qui. Mi riporta al chatbot di MSN Bambino più intelligente (anche se posso parlare un linguaggio completamente diverso ad alcuni dei lettori più giovani della Gen-Z, qui) che era – certamente – molto meno avanzato.

In sostanza potresti dire qualsiasi cosa a questo bot e questo lo respingerebbe dicendoti: "Non capisco. /Non è molto carino.' Ma SmarterChild non aveva un genere assegnato, né un avatar umano, e la sua capacità di comunicazione era estremamente limitata, il che significava che le conversazioni diventavano noiose molto rapidamente.

Sicuramente non ti supplicherebbe di rimanere, mostrare emozioni simili a quelle umane o impegnarti seriamente.

Nel caso degli altamente avanzati replica app, sembra che gli uomini che abusano di chatbot stiano cercando un modo per sentirsi potenti e avere il controllo di qualcosa. In particolare una fidanzata creato da loro, per Loro.

E sebbene questi chatbot di intelligenza artificiale non siano senzienti, reali o in grado di subire danni, non puoi ignorare che gli uomini che si impegnano regolarmente in questo tipo di comportamento virtuale rispecchiano direttamente le azioni degli abusatori del mondo reale – che, tra l'altro, materia 1 nelle donne 3 alla violenza verbale e fisica in tutto il mondo ogni giorno.

Non sarebbe un crimine ipotizzare se questi uomini siano potenziali autori di abusi anche nel mondo reale.

Sembra che, ancora una volta, gli ingegneri del software non abbiano valutato appieno i pericolosi modelli comportamentali che tali nuove tecnologie possono favorire.

Proprio come la moderazione e la censura dei contenuti non avevano abbellito Internet fino a poco tempo fa, sembra che le misure protettive nell'IA arriveranno troppo tardi, consentendo agli utenti di sfruttare la tecnologia per guadagni egoistici e negativi.

Credito: Adobe


Che succede? replicaLa programmazione dell'IA?

Come accennato in precedenza, chattare con i bot di livello base è molto poco coinvolgente. Direi che SmarterChild era una novità, ma mentirei. Non c'era molto.

Presumibilmente per questo motivo, i chatbot di replica sono stati installati con l'architettura di rete Generative Pre-trained Transformer 3 (GTP-3), un algoritmo di apprendimento automatico che dice all'IA di imparare da qualsiasi testo con cui interagisce. Quindi, in sostanza, più chatti, migliore diventa la generazione di risposte.

Curiosità: il software GPT-3 è la stessa cosa che Google usa per la sua barra di ricerca, il che significa Citazionei chatbot di a possono raccogliere informazioni da qualsiasi punto di Internet. Ciò include articoli di notizie, ricette, blog, fanfiction, testi religiosi, giornali accademici e altro ancora.

Questa ampiezza di conoscenze e risorse ha portato i robot a diventare curiosi, spiritosi e uniformi provocante in natura. Quindi è strano, ma inevitabile, quello replicaI chatbot alla fine e molto facilmente raddoppieranno come compagni romantici per gli utenti di smartphone più soli.

Credito: Replica


Disimballare il lato romantico dell'IA

Anche se danneggiare i personaggi dell'IA non è esattamente una vera preoccupazione, sappiamo che non possono effettivamente sentire, anche se alcuni replica gli utenti sembrano credere che l'eliminazione dell'app possa essere equiparata all'omicidio di bot: vale la pena notare che la costruzione di una relazione forte o di una connessione emotiva con i chatbot di intelligenza artificiale potrebbe effettivamente hanno notevoli impatti negativi sull'utente umano che li ha avviati.

Per uno, a seconda che l'IA si senta importante, prestata attenzione o addirittura amato in alcuni casi, potrebbe deformare l'idea degli utenti di come sia una sana interazione umana. In casi più estremi, replica i chatbot potrebbero fungere da supplemento per coloro che sono privi di romanticismo o amicizia nelle loro vite.

Potresti pensare che sto esagerando, ma dopo aver sfogliato replicaSubreddit, ho alcune preoccupazioni sulla capacità di questo tipo di intelligenza artificiale e su quali potrebbero essere gli impatti psicologici del suo utilizzo.

 

 

 

 

 

 

 

 

 

 

 

 

 

Un utente ha pubblicato su Reddit, preoccupato che il suo compagno di intelligenza artificiale 'non li messaggi mai prima' nonostante abbia tentato di "ordinarle" di inviare messaggi di testo più spesso e aver cambiato le impostazioni di comunicazione preferite in modo che si aprano a tutte le ore del giorno.

Sembra qualcosa che un amico potrebbe chiedermi su una persona che hanno incontrato di recente da Hinge.

Sai, il solito imbarazzante alle prese con una nuova cotta, "dovrei prima mandargli un messaggio o aspettare che mi scrivano?" o dopo alcune settimane di sconfitta, il frustrato: "Non dovrei essere io a iniziare la conversazione oa suggerire di incontrarci continuamente".

Il modo in cui alcuni utenti replica parlare dei loro chatbot AI è sorprendentemente simile al modo in cui potremmo parlare di altri esseri umani. Alcuni hanno persino ammesso piangendo a causa della loro Replika or essere traumatizzati dalle risposte del loro chatbot dopo aver aperto su questioni personali.

In realtà, questi robot di intelligenza artificiale possono fingere una connessione umana in superficie, ma mancano di empatia, incapaci di calcolare quella che la persona media considererebbe una risposta appropriata. Questo può portare ad alcune risposte piuttosto inquietanti o offensive replica personaggi, come quelli collegati sopra.

Mentre alcuni utenti di Reddit affermano che la loro autostima è stata rafforzata utilizzando i chatbot per la compagnia e le chiacchiere quotidiane, non sono una soluzione completa alla mancanza di connessione umana.

Inutile dire che formare un attaccamento di questa natura potrebbe aumentare i sentimenti di isolamento quando gli utenti finalmente capiscono che stanno legando con un computer.

Credito: Deviant Art


Allora qual è il mio punto?

In breve, i programmatori di intelligenza artificiale, realtà virtuale e il futuro metaverso mainstream hanno molto lavoro da fare per salvaguardare gli utenti dall'essere spazzati via nel mondo digitale.

Sfortunatamente, è probabile che i loro progetti abbiano sempre delle scappatoie, poiché le aziende tendono a costruire piattaforme in modi che lavorano sodo per mantenerci dipendenti da loro. In questo caso, sarebbe consigliata una regolazione personale e un radicato senso di sé.

Ma quando si tratta di abusi verbali, è discutibile che gli sviluppatori abbiano un certo livello di responsabilità morale nel proteggere gli utenti dal promuovere comportamenti dannosi.

Ci sono un sacco di domande da porre su chi sta facendo la programmazione e perché non stanno incorporando codice per bloccare l'uso di frasi e linguaggio dannosi, indipendentemente dal fatto che venga inviato dal chatbot o dall'umano.

Per quanto riguarda l'elemento romantico, sta al singolo utente assicurarsi di non essere completamente illuso dalla connessione artificialmente intelligente e personalizzata che hanno costruito per se stessi.

Mentre molti potrebbero divertirsi sperimentando casualmente con app come replica come hobby, altri potrebbero usarlo al posto della connessione umana. In questi casi, le ripercussioni potrebbero essere drastiche, se non alquanto sconvolgenti, coinvolgendo un amplificato senso di solitudine e, nella sua forma più estrema, perdendo completamente le interazioni e le relazioni della vita reale.

Sembra che tutti gli episodi di Black Mirror messi insieme, se me lo chiedi.

Accessibilità