Menu Menu

L'IA peut-elle créer le détecteur de mensonge parfait ?

Les experts en IA et en analyse cérébrale cherchent à transformer les détecteurs de mensonges d'outils manifestement obsolètes en dispositifs infaillibles capables de séparer les faits de la fiction avec une précision parfaite.

Comment savoir si quelqu'un ment ? C'est une vieille question à laquelle nous aimerions tous connaître la réponse.

Études suggèrent qu'une personne moyenne entend jusqu'à 200 mensonges par jour, en grande partie composés de ce que ma maman appelle des « mensonges blancs » ou des « tartes au porc »… ce sont surtout des subtilités générales – « J'aimerais entendre parler de votre patron de rêve » – destiné pour graisser les rouages ​​des interactions sociales sans jeter le décorum dans la tourbière, et nous sommes tous coupables de les utiliser.

Un peu plus inquiétant sont résultats qui suggèrent que la plupart des gens disent un ou deux gros mensonges par jour ; 'juicy whoppers', soit pour se promouvoir, soit pour protéger/éviter de blesser les autres… à moins que vous ne soyez un anarchiste qui aime remuer des bêtises avant de s'asseoir et de regarder le monde brûler. Certains mensonges sont plus amusants que d'autres.

Le mystère est bien sûr de savoir comment nous continuons à nous en sortir. Le père de la psychanalyse Sigmund Freud affirmait en 1905 : « Si ses lèvres se taisent, il bavarde du bout des doigts. La trahison suinte de lui par tous les pores », et bien que nous sachions maintenant qu'il était en grande partie un toxicomane paranoïaque, il avait raison.

Pour nous autres incompétents, le corps humain est le plus grand cadeau qui soit. Nos cœurs s'emballent, nous calons et bégayons et des expressions involontaires scintillent à cause des petits muscles de notre visage. Soit nous filons des fils avec trop de couleurs et de détails, soit nous sommes vagues, évasifs et en donnons trop peu. Pourtant, malgré tous ces signaux, nous sommes presque tout aussi désespérés lorsqu'il s'agit de détecter la tromperie.

Le taux de réussite moyen de détection de tromperie - glané dans plus de 206 études scientifiques - a montré que les gens parviennent à séparer les mensonges des faits seulement 54% du temps, autant tirer à pile ou face avec ces chiffres, tragique ! Psychologue de l'Université de Portsmouth Aldert Vrij attribue principalement cela au fait que les signes révélateurs des gens sont si variés et si différents.

Les humains essaient de surmonter ce problème depuis des millénaires. Il y a trois mille ans, les Chinois étaient obligés de mâcher et de cracher du riz ; on croyait que les grains restaient dans la bouche sèche des coupables. Ofc ridicule, mais le stylet saccadé du test polygraphique, à vrai dire, n'est pas beaucoup mieux.

Si vous avez regardé Chasseur d'esprit or Faire un meurtrier (non, nous ne sommes pas sponsorisés par Netflix), vous n'êtes que trop conscient que les tests polygraphiques sont loin d'être définitifs et ont été fréquemment utilisés comme une forme de coercition à travers l'histoire. La fiabilité des résultats dépend trop fortement de la qualité des questions et de l'objectivité absolue de l'interrogateur… essentiellement le contraire de ce qu'était Jeremy Kyle dans plus de 3,000 XNUMX cas.

La menace d'être démasqué par la machine a suffi à pousser des innocents à avouer tout au long de la 1960s. C'est devenu une forme de torture psychologique qui a arraché de faux aveux aux personnes vulnérables. Associez-le à des policiers ou à des procureurs qui croyaient trop à la validité de la technologie, et vous aviez la recette du désastre. Heureusement, les tests polygraphiques sont rarement admissibles comme preuve aujourd'hui. Un avocat à moitié décent s'y opposera toujours.

Il ne nous suffit pas de considérer le polygraphe comme un appareil défectueux, la nature humaine est d'innover constamment. Si quelque chose est cassé, nous avons un désir insatiable d'essayer de le réparer, et nous ne sommes pas sur le point de laisser cette idée mourir.

La ressource incontournable pour toute nouvelle technologie révolutionnaire de nos jours est l'IA. Le principe de l'IA est d'exploiter l'informatique axée sur le principe de l'apprentissage adaptatif. En termes simples, cela fait référence à des programmes informatiques qui adapteront systématiquement leur programmation à mesure qu'ils «en apprendront» davantage sur la tâche qu'ils ont choisie, un peu comme le cerveau humain.

Et vous pouvez parier que les programmeurs rivalisent pour être les premiers à créer le détecteur de mensonge parfait en utilisant les principes de l'IA.

Aujourd'hui, le département américain de la Sécurité intérieure au Canada teste un système d'IA connu sous le nom de AVATAR (Agent Virtuel Automatisé) aux postes frontières. À l'aide de vidéos interactives, les voyageurs répondent à des questions standard sur leurs bagages, leurs armes potentielles, leurs produits, etc., avant d'être numérisés à la recherche de signes de malhonnêteté (pendant 45 secondes), les individus « suspects » étant envoyés pour un contrôle supplémentaire par des agents humains.

Un outil similaire nommé Détection des yeux est testé à plusieurs postes frontaliers à travers les États-Unis et cherche à utiliser les mêmes principes qu'AVATAR, mais en détectant des changements infimes ou des « micro-gestes » dans l'œil du sujet.

Le principal problème avec ces technologies est qu'elles se concentrent entièrement sur des changements superficiels qui sont subjectifs. Souriez-vous toujours parce que vous êtes heureux et froncez-vous les sourcils parce que vous êtes énervé ? Bien sûr que non. Un cil dans l'œil après une question louche provoquera-t-il un officier de patrouille heureux avec le taser ? Nous sommes Joshing, mais vous avez compris.

La prochaine étape logique est sûrement d'isoler les changements révélateurs de la chimie du cerveau - où les mensonges sont formulés - De toute évidence, vous ne pouvez pas ranger un scanner IRM dans une valise et vous rendre dans la salle d'interrogatoire, mais c'est clairement la méthode la plus fiable à déchiffrer est à notre disposition aujourd'hui.

Mis à part l'aspect pratique, cette technologie pourrait entraîner de graves violations de l'éthique. Une dystopie numérique où les machines lisent nos pensées les plus personnelles est assez effrayante, et encore une fois des décisions cruciales pourraient être prises sur la base des estimations personnelles des gouvernements et des entreprises sur la technologie. Et si ça ne fonctionnait pas correctement ?

Les créateurs de ces outils continuent de soutenir que l'élimination de la tromperie est la clé pour créer un monde plus juste et plus sûr. Mais ils pourraient par inadvertance mettre des innocents en danger avec leurs efforts. Cette application pour l'IA semble juste un peu trop optimiste et dangereuse.

Accessibilité