Menu Menu

L'intelligenza artificiale può creare la macchina della verità perfetta?

Gli esperti di intelligenza artificiale e di scansione del cervello stanno cercando di trasformare la macchina della verità da strumenti evidentemente obsoleti, in dispositivi infallibili in grado di separare i fatti dalla finzione con perfetta precisione.

Come puoi sapere se qualcuno sta mentendo? È una vecchia domanda a cui tutti vorremmo conoscere la risposta.

Studi suggerire che la persona media sente fino a 200 bugie al giorno, in gran parte costituite da quelle che mia mamma chiama "bugie bianche" o "torte di maiale" ... queste sono per lo più sottigliezze generali - "Mi piacerebbe sentire parlare del tuo capo dei sogni" per ungere le ruote delle interazioni sociali senza buttare giù il decoro, e siamo tutti colpevoli di usarle.

Leggermente più inquietanti sono I risultati che suggeriscono che la maggior parte delle persone dice una o due grandi bugie al giorno; 'succose stronzate', per promuovere se stessi o per proteggere/evitare di ferire gli altri... a meno che tu non sia un anarchico che ama mescolare sciocchezze prima di sedersi e guardare il mondo bruciare. Alcune bugie sono più divertenti di altre.

Il mistero, naturalmente, è come continuiamo a farla franca. Il padre della psicoanalisi Sigmund Freud affermava nel 1905: "Se le sue labbra tacciono, chiacchiera con la punta delle dita. Il tradimento trasuda da lui da ogni poro', e mentre ora sappiamo che era in gran parte un paranoico dipendente dalla cocaina, aveva ragione.

Per noi fibbre incompiute, il corpo umano è il più grande regalo che ci sia. I nostri cuori corrono, fermiamo e balbettiamo e le espressioni involontarie tremolano dai piccoli muscoli nei nostri volti. O giriamo i filati con troppi colori e dettagli, oppure siamo vaghi, evasivi e diamo troppo poco. Eppure, nonostante tutti questi segnali, siamo quasi ugualmente senza speranza quando si tratta di individuare l'inganno.

Il tasso medio di successo nell'individuare l'inganno - raccolto da oltre 206 studi scientifici - ha dimostrato che le persone riescono a separare le bugie dai fatti solo il 54% delle volte, tanto vale lanciare una moneta con quei numeri, tragico! Psicologa dell'università di Portsmouth Alder Vrij per lo più attribuisce questo al fatto che i segni rivelatori delle persone sono così ampi e diversi.

Gli esseri umani hanno cercato di superare questo problema per millenni. Tremila anni fa i cinesi furono costretti a masticare e sputare il riso; si pensava che i grani si conficcassero nelle bocche secche dei colpevoli. Ridicolo ofc, ma lo stilo tremolante del test del poligrafo, a dire il vero, non è molto meglio.

Se hai guardato Mindhunter or Commettere un omicidio (no, non siamo sponsorizzati da Netflix), sarai fin troppo consapevole che il test del poligrafo è tutt'altro che definitivo ed è stato spesso usato come forma di coercizione nel corso della storia. L'affidabilità dei risultati dipende troppo dalla qualità delle domande e dall'assoluta obiettività dell'interrogatore... essenzialmente l'opposto di quello che era Jeremy Kyle in oltre 3,000 casi.

La minaccia di essere smascherati dalla macchina è stata sufficiente per convincere persone innocenti a confessarsi per tutto il tempo 1960 secondi. È diventata una forma di tortura psicologica che ha strappato false ammissioni ai più vulnerabili. Abbinalo a funzionari di polizia o pubblici ministeri che credevano troppo fortemente nella validità della tecnologia e hai avuto una ricetta per il disastro. Per fortuna, i test del poligrafo sono raramente ammissibili come prova oggi. Un avvocato mezzo decente si oppone sempre.

Tuttavia, non è sufficiente per noi considerare il poligrafo un dispositivo difettoso, la natura umana è quella di innovare costantemente. Se qualcosa si è rotto, abbiamo un desiderio insaziabile di provare a ripararlo, e non abbiamo intenzione di lasciare che questa idea muoia.

La risorsa di riferimento per qualsiasi nuovo rivoluzionario pezzo di tecnologia in questi giorni è l'intelligenza artificiale. Il principio dell'intelligenza artificiale è quello di sfruttare l'informatica incentrata sul principio dell'apprendimento adattivo. In parole povere, si riferisce a programmi per computer che adatteranno costantemente la loro programmazione mentre "imparano" di più sul compito prescelto, proprio come il cervello umano.

E puoi scommettere che i programmatori fanno a gara per essere i primi a creare la macchina della verità perfetta utilizzando i principi dell'intelligenza artificiale.

Oggi, il Dipartimento per la sicurezza interna degli Stati Uniti in Canada sta testando un sistema di intelligenza artificiale noto come AVATAR (Agente virtuale automatizzato) ai valichi di frontiera. Utilizzando video interattivi, i viaggiatori rispondono a domande standard sui loro bagagli, potenziali armi, prodotti ecc., prima di essere scansionati digitalmente alla ricerca di segni di disonestà (per 45 secondi), con individui "sospetti" inviati per ulteriori controlli da parte di agenti umani.

Uno strumento simile chiamato Rilevamento occhi è stato sperimentato in diversi valichi di frontiera negli Stati Uniti e cerca di utilizzare gli stessi principi di AVATAR, ma rilevando piccoli cambiamenti o "micro gesti" nell'occhio del soggetto.

Il problema principale con queste tecnologie è che si concentrano interamente su cambiamenti superficiali che sono soggettivi. Sorridi sempre perché sei felice e ti accigli perché sei nervoso? Ovviamente no. Una ciglia negli occhi dopo una domanda dubbia provocherà un ufficiale di pattuglia taser? Siamo Joshing, ma hai capito.

Sicuramente il prossimo passo logico è isolare i cambiamenti rivelatori nella chimica del cervello - dove vengono formulate le bugie - Ovviamente, non puoi mettere uno scanner MRI in una valigia e andare nella stanza degli interrogatori, ma è chiaramente il metodo più affidabile per decifrare le bugie oggi a nostra disposizione.

Mettendo da parte la praticità, tuttavia, ci sono gravi violazioni etiche che questa tecnologia potrebbe portare. Una distopia digitale in cui le macchine leggono i nostri pensieri più personali è abbastanza spaventosa, e ancora una volta potrebbero essere prese decisioni cruciali sulla base delle stime personali della tecnologia di governi e aziende. E se semplicemente non funzionasse correttamente?

I creatori di questi strumenti continuano a sostenere che eliminare l'inganno è la chiave per creare un mondo più giusto e più sicuro. Ma potrebbero inavvertitamente mettere a rischio gli innocenti con i loro sforzi. Questa applicazione per l'intelligenza artificiale sembra un po' troppo ottimista e pericolosa.

Accessibilità