MENÜ MENÜ

Kann KI den perfekten Lügendetektor erschaffen?

KI- und Gehirnscanning-Experten wollen Lügendetektoren von offensichtlich veralteten Werkzeugen in unfehlbare Geräte verwandeln, die Fakten und Fiktion mit perfekter Genauigkeit trennen können.

Woran erkennt man, ob jemand lügt? Es ist eine alte Frage, auf die wir alle gerne die Antwort wissen würden.

Studien schlagen vor, dass die durchschnittliche Person bis zu 200 Lügen pro Tag hört, die größtenteils aus „Notlügen“ oder „Porky Pies“ bestehen, was ich Mama nenne … dies sind hauptsächlich allgemeine Nettigkeiten – „Ich würde gerne von Ihrem Traumchef hören“ – beabsichtigt die Räder der sozialen Interaktionen zu schmieren, ohne Anstand in den Sumpf zu spülen, und wir alle sind schuldig, sie zu benutzen.

Etwas störender sind Befund die darauf hindeuten, dass die meisten Menschen täglich eine oder zwei große Lügen erzählen; 'saftige Whopper', entweder um sich selbst zu fördern oder um andere zu schützen / zu vermeiden ... es sei denn, Sie sind ein Anarchist, der es genießt, Unsinn zu rühren, bevor er sich zurücklehnt und zusieht, wie die Welt brennt. Manche Lügen machen mehr Spaß als andere.

Das Geheimnis ist natürlich, wie wir immer wieder damit durchkommen. Der Vater der Psychoanalyse Sigmund Freud behauptete 1905: „Wenn seine Lippen schweigen, plappert er mit den Fingerspitzen. Verrat sickert aus jeder Pore aus ihm heraus', und obwohl wir jetzt wissen, dass er größtenteils ein paranoider Kokssüchtiger war, hatte er Recht.

Für uns unerfahrene Ballaststoffe ist der menschliche Körper das größte Werbegeschenk, das es gibt. Unser Herz rast, wir stocken und stottern und unwillkürliche Gesichtsausdrücke flackern aus kleinen Muskeln in unseren Gesichtern. Entweder spinnen wir Garne mit zu vielen Farben und Details, oder wir sind vage, ausweichend und verraten zu wenig. Doch trotz all dieser Signale sind wir fast ebenso hoffnungslos, wenn es darum geht, Täuschungen zu erkennen.

Die durchschnittliche Erfolgsrate beim Erkennen von Täuschungen – die aus über 206 wissenschaftlichen Studien gewonnen wurde – hat gezeigt, dass Menschen es nur in 54 % der Fälle schaffen, Fibs von Fakten zu trennen, wir könnten genauso gut eine Münze mit diesen Zahlen werfen, tragisch! Psychologe der Universität Portsmouth Aldert Vrij führt dies hauptsächlich darauf zurück, dass die verräterischen Zeichen der Menschen so weitreichend und unterschiedlich sind.

Seit Jahrtausenden versucht der Mensch, dieses Problem zu überwinden. Vor XNUMX Jahren mussten die Chinesen Reis kauen und ausspucken; die Körner sollen im trockenen Mund der Schuldigen stecken bleiben. Lächerlich vonc, aber der ruckelnde Stift des Lügendetektortests ist ehrlich gesagt nicht viel besser.

Wenn du zugesehen hast Mindhunter or Mörder machen (Nein, wir werden nicht von Netflix gesponsert), Sie werden sich nur allzu bewusst sein, dass das Testen von Lügendetektoren nicht endgültig ist und im Laufe der Geschichte häufig als Form von Zwang eingesetzt wurde. Die Zuverlässigkeit der Ergebnisse hängt zu stark von der Qualität der Fragen und der absoluten Objektivität des Vernehmers ab… im Wesentlichen das Gegenteil von dem, was Jeremy Kyle in über 3,000 Fällen war.

Die Drohung, von der Maschine geoutet zu werden, reichte aus, um unschuldige Menschen zu Geständnissen zu bewegen 1960er-Jahre. Es wurde zu einer Form psychologischer Folter, die den Schwachen falsche Eingeständnisse abzwang. Kombinieren Sie dies mit Polizeibeamten oder Staatsanwälten, die zu stark an die Gültigkeit der Technologie glaubten, und Sie hatten ein Rezept für eine Katastrophe. Glücklicherweise sind Lügendetektortests heute nur noch selten als Beweismittel zulässig. Ein halbwegs anständiger Anwalt wird immer dagegen argumentieren.

Es reicht uns jedoch nicht aus, den Lügendetektor einfach als fehlerhaftes Gerät abzustempeln, die menschliche Natur ist es, ständig innovativ zu sein. Wenn etwas kaputt ist, haben wir ein unstillbares Verlangen, es zu reparieren, und wir werden diese Idee nicht sterben lassen.

Die wichtigste Ressource für jede neue revolutionäre Technologie ist heutzutage KI. Das Prinzip der KI besteht darin, die Informatik zu nutzen, die auf das Prinzip des adaptiven Lernens ausgerichtet ist. Laienhaft ausgedrückt bezieht es sich auf Computerprogramme, die ihre Programmierung konsequent anpassen, während sie mehr über ihre gewählte Aufgabe „lernen“, ähnlich wie das menschliche Gehirn.

Und Sie können darauf wetten, dass Programmierer darum kämpfen, die ersten zu sein, die den perfekten Lügendetektor nach den Prinzipien der KI entwickeln.

Heute testet das US-Heimatschutzministerium in Kanada ein KI-System namens BENUTZERBILD (Automated Virtual Agent) an Grenzübergängen. Mit interaktiven Videos beantworten Reisende Standardfragen zu ihrem Gepäck, möglichen Waffen, Produkten usw., bevor sie digital auf Anzeichen von Unehrlichkeit gescannt werden (45 Sekunden lang), wobei „verdächtige“ Personen von menschlichen Agenten zu einer zusätzlichen Überprüfung geschickt werden.

Ein ähnliches Tool namens EyeDetect wird an mehreren Grenzübergängen in den USA getestet und versucht, die gleichen Prinzipien wie AVATAR zu verwenden, jedoch durch die Erkennung kleinster Veränderungen oder „Mikrogesten“ im Auge des Subjekts.

Das Hauptproblem bei diesen Technologien ist, dass sie sich ausschließlich auf oberflächliche Veränderungen konzentrieren, die subjektiv sind. Lächeln Sie immer, weil Sie glücklich sind, und runzeln Sie immer die Stirn, weil Sie am Ende sind? Natürlich nicht. Wird eine Wimper im Auge nach einer zwielichtigen Frage einen taserfröhlichen Streifenpolizisten provozieren? Wir sind Joshing, aber Sie verstehen, worauf es ankommt.

Sicherlich ist der nächste logische Schritt, verräterische Veränderungen in der Gehirnchemie zu isolieren – wo Lügen formuliert werden – Natürlich kann man einen MRT-Scanner nicht in einen Koffer packen und in den Verhörraum wandern, aber es ist eindeutig die zuverlässigste Methode zur Entschlüsselung steht uns heute zur Verfügung.

Abgesehen von der Praktikabilität gibt es jedoch schwerwiegende ethische Verstöße, die diese Technologie mit sich bringen könnte. Eine digitale Dystopie, bei der Maschinen unsere persönlichsten Gedanken lesen, ist beängstigend genug, und wiederum könnten wichtige Entscheidungen auf der Grundlage der persönlichen Einschätzungen von Regierungen und Unternehmen zur Technologie getroffen werden. Was ist, wenn es einfach nicht richtig funktioniert?

Die Schöpfer dieser Tools argumentieren weiterhin, dass die Ausmerzung von Täuschung der Schlüssel zur Schaffung einer gerechteren und sichereren Welt ist. Aber sie könnten mit ihren Bemühungen unbeabsichtigt die Unschuldigen gefährden. Diese Anwendung für KI scheint einfach ein wenig zu optimistisch und gefährlich zu sein.

Zugänglichkeit