Menu Menu

A IA pode criar o detector de mentiras perfeito?

Os especialistas em inteligência artificial e varredura cerebral estão procurando transformar detectores de mentiras de ferramentas evidentemente obsoletas em dispositivos infalíveis capazes de separar o fato da ficção com perfeita precisão.

Como você pode saber se alguém está mentindo? É a velha pergunta para a qual todos adoraríamos saber a resposta.

Casos sugiro que a pessoa média ouça até 200 mentiras por dia, em grande parte composta do que minha mãe chama de 'mentiras inocentes' ou 'tortas gordas' ... essas são principalmente sutilezas gerais - 'Eu adoraria ouvir sobre o chefe dos seus sonhos' - pretendia para engraxar as engrenagens das interações sociais sem jogar o decoro no pântano, e todos somos culpados de usá-los.

Um pouco mais preocupantes são descobertas que sugerem que a maioria das pessoas conta uma ou duas grandes mentiras por dia; 'baboseiras suculentas', seja para se promover, ou para proteger / evitar machucar os outros ... a menos que você seja um anarquista que gosta de mexer com coisas sem sentido antes de sentar e assistir o mundo queimar. Algumas mentiras são mais divertidas do que outras.

O mistério, claro, é como continuamos nos saindo impunes. O pai da psicanálise, Sigmund Freud, afirmou em 1905: 'Se seus lábios se calam, ele tagarela com a ponta dos dedos. A traição flui dele por todos os poros, e embora agora saibamos que ele era em grande parte um viciado em cocaína paranóico, ele tinha razão.

Para nós, fibras não realizadas, o corpo humano é a maior dádiva que existe. Nossos corações disparam, nós paramos e gaguejamos e expressões involuntárias piscam em pequenos músculos em nossos rostos. Ou nós tecemos fios com muitas cores e detalhes, ou somos vagos, evasivos e revelamos muito pouco. No entanto, apesar de todos esses sinais, estamos quase igualmente sem esperança quando se trata de detectar o engano.

A taxa média de sucesso em detectar fraudes - obtida em mais de 206 estudos científicos - mostrou que as pessoas conseguem separar as mentiras dos fatos apenas 54% das vezes, podemos muito bem jogar uma moeda com esses números, trágico! Psicólogo Portsmouth Uni Aldert Vrij principalmente atribui isso ao fato de que os sinais indicadores das pessoas são tão abrangentes e diferentes.

Os humanos vêm tentando superar esse problema há milênios. Três mil anos atrás, os chineses foram forçados a mastigar e cuspir arroz; pensava-se que os grãos grudavam na boca seca dos culpados. Ridículo ofc, mas o estilo trêmulo do teste do polígrafo, na verdade, não é muito melhor.

Se você assistiu Mindhunter or Fazendo um assassino (não, não somos patrocinados pela Netflix), você deve estar ciente de que o teste do polígrafo é menos do que definitivo e tem sido freqüentemente usado como uma forma de coerção ao longo da história. A confiabilidade dos resultados depende muito da qualidade das perguntas e da objetividade absoluta do interrogador ... essencialmente o oposto do que Jeremy Kyle foi em mais de 3,000 casos.

A ameaça de ser denunciado pela máquina foi o suficiente para convencer pessoas inocentes a confessar durante todo o 1960s. Tornou-se uma forma de tortura psicológica que arrancou falsas confissões dos vulneráveis. Junte isso a policiais ou promotores que acreditavam muito na validade da tecnologia e você teria uma receita para o desastre. Felizmente, os testes do polígrafo raramente são admissíveis como evidência hoje. Um advogado meio decente sempre argumentará contra isso.

Não é suficiente para nós simplesmente riscar o polígrafo como um dispositivo defeituoso, a natureza humana deve inovar constantemente. Se algo está quebrado, temos um desejo insaciável de tentar consertar, e não vamos deixar essa ideia morrer.

O recurso indispensável para qualquer nova peça de tecnologia revolucionária hoje em dia é a IA. O princípio da IA ​​é aproveitar a ciência da computação com foco no princípio da aprendizagem adaptativa. Em termos leigos, refere-se a programas de computador que adaptarão consistentemente sua programação à medida que "aprendem" mais sobre a tarefa escolhida, de forma semelhante ao cérebro humano.

E você pode apostar que os programadores estão competindo para ser os primeiros a criar o detector de mentiras perfeito usando os princípios da IA.

Hoje, o Departamento de Segurança Interna dos EUA no Canadá está testando um sistema de IA conhecido como AVATAR (Agente Virtual Automatizado) nas passagens de fronteira. Usando vídeos interativos, os viajantes respondem a perguntas padrão sobre suas bagagens, armas em potencial, produtos etc., antes de serem digitalizados digitalmente em busca de sinais de desonestidade (por 45 segundos), com indivíduos 'suspeitos' sendo enviados para triagem adicional por agentes humanos.

Uma ferramenta semelhante chamada EyeDetec está sendo testado em vários cruzamentos de fronteira nos Estados Unidos e parece empregar os mesmos princípios do AVATAR, mas detectando mudanças mínimas ou 'micro gestos' no olho do sujeito.

O principal problema com essas tecnologias é que elas se concentram inteiramente em mudanças superficiais que são subjetivas. Você sempre sorri porque está feliz e franze a testa porque está ferido? Claro que não. Será que um cílio no olho após uma pergunta duvidosa provocará um policial de patrulha feliz com o taser? Somos Joshing, mas você entendeu.

Certamente, o próximo passo lógico é isolar as mudanças reveladoras na química do cérebro - onde mentiras são formuladas - Obviamente, você não pode colocar um scanner de ressonância magnética em uma mala e descer até a sala de interrogatório, mas é claramente o método mais confiável para decifrar está à nossa disposição hoje.

Colocando a praticidade de lado, porém, existem sérias infrações éticas que essa tecnologia pode trazer. Uma distopia digital onde as máquinas estão lendo nossos pensamentos mais pessoais é assustadora o suficiente e, novamente, decisões cruciais podem ser tomadas com base nas estimativas pessoais de governos e corporações sobre a tecnologia. E se simplesmente não funcionar corretamente?

Os criadores dessas ferramentas continuam a argumentar que eliminar o engano é a chave para a criação de um mundo mais justo e seguro. Mas eles podem, inadvertidamente, estar colocando inocentes em risco com seus esforços. Este aplicativo para IA parece um pouco otimista e perigoso.

Acessibilidade