Меню Меню

Почему приложение Facemega для дипфейков — это скользкий путь

Доступ к технологии дипфейков становится проще. Поскольку большинство людей предпочитают использовать ее по зловещим причинам, трудно игнорировать тот факт, что негативные последствия новой технологии могут перевешивать ее преимущества.

Негативные и опасные последствия дипфейков активно обсуждаются с тех пор, как в 2017 году технология искусственного интеллекта стала мейнстримом.

Эксперты имеют предупреждал что их широкое использование в сочетании с постоянно совершенствующимися системами обучения ИИ «нанесет ущерб обществу» и что мы «не готовы» справиться с последствиями.

Помимо причудливо реальных клипов, размещенных на @deepTomCruise TikTok, в большинстве дипфейков не требуется много времени, чтобы обнаружить тонкие сбои, которые позволяют нам определить их как сфабрикованный контент.

Создание безупречного видео, в котором кто-то говорит то, чего на самом деле не говорил, или совершает действия, которых не совершал, требует, например, феноменальных навыков редактирования. Также требуется множество мультимедийных ориентиров, чтобы ИИ достаточно хорошо изучил манеры и речевые привычки человека, чтобы быть убедительным.

Но, конечно, развитие такой технологии было лишь вопросом времени, и прежде чем она была адаптирована для работы в руках обычных людей.

В последние дни пользователи приложений для редактирования фотографий и Facebook сообщали, что видели рекламу приложения под названием Facemega. Бесплатное программное обеспечение для смартфонов позволяет пользователям загружать и сшивать портрет виртуального человека. чей-то лицом к любой видео по своему выбору.

Глядя на видео глубокой подделки Эммы Уотсон выше, вы можете увидеть, насколько реалистична эта технология.

Серьезно, я недавно был на голографическом концерте ABBA в Лондоне, получившем признание критиков, и реалистичные движения в этом клипе поразительно похожи по качеству.

Но трудно не заметить наводящий характер видео, которое прекрасно иллюстрирует темные намерения пользователей — а возможно, и самих программистов. Еще более проблематичным является то, что этот клип используется в качестве рекламы.

ретвит записи экрана рекламы, один пользователь твиттера сказал: «Это просто новый способ сексуальных домогательств к женщинам. Это лишает вас телесной автономии и принуждает к сексуальным материалам без согласия, которые затем могут быть использованы для унижения и дискриминации в отношении вас. Не говоря уже о психологических эффектах.

Поощрение использования дипфейкового ИИ для этой цели, очевидно, зловеще. Тем не менее, это не должно удивлять, поскольку до сих пор самые известные случаи использования технологии дипфейков были либо порнографическими, либо связанными с политикой.

 

Согласно исследованию, проведенному Deeptrace, в 2019 году — всего через два года после создания технологии — сообщалось, что по крайней мере 96 процентов всех дипфейковых видео, найденных в Интернете, были порнографическими.

Созданию этих видеороликов способствуют многочисленные веб-сайты, на которых размещены исключительно порнографии с дипфейками. Многие фальсифицированные клипы, загруженные на эти платформы, были созданы мстительными бывшими или людьми, которые хотят запятнать имидж своих врагов.

В результате правительства по всему миру начали создавать более сильные правовые рамки, которые ограничивают способы использования технологии дипфейков. По общему признанию, они должны были быть проинформированы о существующих случаях, поэтому технические эксперты предупредили, что мы не готовы к его опасностям.

Еще в ноябре 2022 года правительство Великобритании создало дипфейковую порнографию. уголовное преступление, подлежащее тюремному заключению. Однако суды могут преследовать лиц только в том случае, если они распространяют эти изображения или видео в Интернете.

Некоторые штаты США также поставили похожие законы на месте. Однако на самом деле эти политики не могут защитить кого-либо от вставки в графические видео для собственного просмотра другим человеком за закрытыми дверями.

Этой мысли у подавляющего большинства женщин будет достаточно, чтобы вызвать отвращение и гнев, если не дрожь и мурашки по коже.

@kennaacting

Испытание обменом лицами с #фейсмега #facemegaapp #обмен лицами #лицомагия #редактирование видео #веселая #играет роль

♬ Happy Upbeat Fun Rock Energetic – StockSounds

Как уже упоминалось, дипфейки также использовались для разжигания политических волнений.

Барак Обама был изображенный оскорбление Дональда Трампа. У Марка Цукерберга есть был готов сказать, что единственная цель Facebook — контролировать и эксплуатировать пользователей платформы.

Все они стали вирусными, показывая уровень интереса, трепета, а в некоторых случаях и хитрость технологии дипфейков.

При использовании в других контекстах последствия могут быть гораздо более опасными. В первые месяцы вторжения России в Украину видео президента Зеленского появился, в котором он сказал украинским солдатам сдаться российским солдатам.

К счастью, реальные Президент Зеленский в своих личных аккаунтах в социальных сетях подтвердил, что видео было сфабриковано оппозиционными силами. Он напомнил своему народу, что борьба за свою страну еще не окончена, и призвал их оставаться едиными.

Кажется, что это дипфейки, даже когда они используются для создания достойной смеха версии традиционной королевы Елизаветы II. Рождественская речь, имеют тенденцию вызывать тревожное чувство внутри нас.

Возможно, мы знают в глубине души эта технология, скорее всего, будет использоваться со злым умыслом. Итак, что произойдет, когда он станет настолько продвинутым, что мы не сможем отличить правду от вымысла?

С бесплатными приложениями, такими как Facemega, должны ли мы беспокоиться о том, что технология дипфейков становится широко доступной через наши смартфоны?

Я бы сказал, что, к сожалению, мы должны быть.

Универсальный доступ