Меню Меню

Может ли ИИ создать идеальный детектор лжи?

Эксперты по искусственному интеллекту и сканированию мозга стремятся превратить детекторы лжи из явно устаревших инструментов в безошибочные устройства, способные с идеальной точностью отделить факты от вымысла.

Как узнать, лжет ли кто-то? Это старый вопрос, на который мы все хотели бы знать ответ.

Исследования предположим, что в среднем человек слышит до 200 лжи в день, в основном состоящую из того, что мама называет «белой ложью» или «пирогами со свининой» ... это в основном общие тонкости - «Я бы хотел услышать о начальнике твоей мечты» смазывать колеса социальных взаимодействий, не сбрасывая приличия в трясину, и мы все виноваты в их использовании.

Немного более тревожными являются результаты которые предполагают, что большинство людей говорят одну или две большие лжи в день; «сочные громады», чтобы либо продвигать себя, либо защищать / избегать причинения вреда другим… если только вы не анархист, который любит помешивать ерунду, прежде чем сесть и посмотреть, как горит мир. Одна ложь веселее, чем другая.

Загадка, конечно же, в том, как нам это сходит с рук. Отец психоанализа Зигмунд Фрейд утверждал в 1905 году: «Если его губы молчат, он болтает кончиками пальцев. Предательство вытекает из него из каждой поры », и хотя теперь мы знаем, что он был в значительной степени параноидальным наркоманом, он был прав.

Для нас, недоразумений, человеческое тело - самая большая распродажа. Наши сердца бешено бьются, мы заикаемся и заикаемся, а маленькие мускулы на наших лицах мелькают непроизвольно. Мы либо прядем пряжу со слишком большим количеством цветов и деталей, либо мы расплывчаты, уклончивы и выдаем слишком мало. Тем не менее, несмотря на все эти сигналы, мы почти одинаково безнадежны, когда дело доходит до обнаружения обмана.

Средний показатель успешности выявления обмана - полученный из более чем 206 научных исследований - показал, что людям удается отделить выдумки от фактов только в 54% случаев, мы могли бы с таким же успехом подбросить монетку с этими числами, трагично! Психолог Портсмутского университета Альдерт Врий в основном объясняет это тем, что контрольные признаки людей настолько разнообразны и разнообразны.

Люди тысячелетиями пытались решить эту проблему. Три тысячи лет назад китайцы были вынуждены жевать и выплевывать рис; считалось, что крупинки застревают во рту виноватых. Смешно, но дрожащий стилус теста на полиграфе, честно говоря, не намного лучше.

Если вы смотрели MindHunter or Создание убийцы (нет, Netflix нас не спонсирует), вы будете хорошо осведомлены, что проверка на полиграфе не является окончательной и часто использовалась как форма принуждения на протяжении всей истории. Надежность результатов слишком сильно зависит от качества вопросов и абсолютной объективности дознавателя… по сути, противоположность тому, чем был Джереми Кайл в более чем 3,000 делах.

Угрозы быть обнаруженными машиной было достаточно, чтобы склонить невинных людей к признанию на всем протяжении 1960s. Это стало формой психологической пытки, которая заставляла уязвимых вырываться из ложных признаний. Соедините это с полицейскими или прокурорами, которые слишком твердо верили в действенность технологии, и вы получите рецепт катастрофы. К счастью, сегодня тесты на полиграфе редко допускаются в качестве доказательства. Полуприличный юрист всегда будет возражать против этого.

Для нас недостаточно просто списать полиграф как неисправное устройство, человеческая природа - постоянно вводить новшества. Если что-то сломалось, у нас есть ненасытное желание попытаться исправить это, и мы не собираемся позволить этой идее умереть.

В наши дни основным ресурсом для любой новой революционной технологии является искусственный интеллект. Принцип ИИ заключается в использовании информатики, ориентированной на принцип адаптивного обучения. С точки зрения непрофессионала, это относится к компьютерным программам, которые будут последовательно адаптировать свое программирование по мере того, как они «узнают» больше о своей выбранной задаче, во многом подобно человеческому мозгу.

И вы можете поспорить, что программисты соперничают за то, чтобы первыми создать идеальный детектор лжи, используя принципы искусственного интеллекта.

Сегодня Министерство внутренней безопасности США в Канаде тестирует систему искусственного интеллекта, известную как АВАТАР (Автоматизированный виртуальный агент) на пограничных переходах. Используя интерактивные видеоролики, путешественники отвечают на стандартные вопросы о своем багаже, возможном оружии, товарах и т. Д., Прежде чем их просканируют цифровым способом на наличие признаков недобросовестности (в течение 45 секунд), а «подозрительные» люди будут отправлены на дополнительный досмотр агентами-людьми.

Похожий инструмент под названием Обнаружение глаз проходит испытания на нескольких пограничных переходах по всей территории США и, похоже, использует те же принципы, что и AVATAR, но посредством обнаружения мельчайших изменений или «микротестов» в глазах объекта.

Основная проблема этих технологий заключается в том, что они полностью сосредоточены на поверхностных изменениях, которые носят субъективный характер. Вы всегда улыбаетесь, потому что счастливы, и хмуритесь, потому что завелись? Конечно, нет. Будет ли ресница в глазу после хитрого вопроса спровоцировать довольного тазером патрульного? Мы шутим, но вы поняли суть.

Несомненно, следующим логическим шагом будет выявление явных изменений в химии мозга - там, где формулируется ложь - Очевидно, вы не можете упаковать сканер МРТ в чемодан и отправиться в комнату для допросов, но это явно самый надежный метод. для расшифровки находится в нашем распоряжении сегодня.

Однако, если оставить в стороне практичность, эта технология может привести к серьезным этическим нарушениям. Цифровая антиутопия, когда машины читают наши самые личные мысли, достаточно пугающая, и снова важные решения могут быть приняты на основе личных оценок технологии правительствами и корпорациями. Что, если он просто не работает должным образом?

Создатели этих инструментов продолжают утверждать, что устранение обмана - ключ к созданию более справедливого и безопасного мира. Но они могли непреднамеренно подвергнуть опасности невиновных своими усилиями. Это приложение для ИИ кажется слишком оптимистичным и опасным.

Универсальный доступ