Где еще используется технология дипфейков?
Контент дипфейков прошел долгий путь и неуклонно становится частью основного онлайн-контента, к лучшему или к худшему. Одним из примеров является дипфейк-аккаунт Тома Круза в TikTok, который создает короткие видеоролики, убедительно показывающие актера в самых разных ситуациях.
Пользователей часто обманывают, полагая, что это реальные Том, когда на самом деле это актер-двойник с лицом Круза, наложенным цифровым способом в пост-продакшн.
Хотя этот пример в основном безвреден и не предназначен для создания проблем, подобная технология дипфейков используется более злонамеренно.
Особую озабоченность вызывает порнография с искусственным интеллектом. Существует значительный потенциал для создания и распространения откровенных материалов без согласия, поскольку многие веб-сайты для взрослых не регулируются должным образом и редко следуют строгим правилам.
Материал Deepfake также был создан для того, чтобы сбить с толку и дезинформировать общественность об украинской войне. В Интернете был распространен контент, который показывает, что лидеры обеих стран «говорят» то, чего они не говорили. Последствия этого могут быть далеко идущими — и мы, вероятно, увидим, как это будет развиваться дальше.
Можно манипулировать не только визуальными эффектами. Аудио дипфейки набирают обороты и становятся гораздо более доступными. Один из сервисов, с которым мы пытались повозиться в офисе Thred, — это UberDuck, который позволил нам создать все песни Эминема старой школы с нуля.
Еще один инструмент умеет создавать автоматизированные лица только из аудио, а это значит, что вскоре мы можем увидеть целых цифровых людей, созданных с нуля, которые никогда даже не существовавший, Платформа Replika экспериментирует с этим, используя чат-ботов, создавая цифровых диалоговых персонажей, с которыми люди могут взаимодействовать. Придумайте сюжет к Ее и ты не за горами.
https://www.youtube.com/watch?v=QhBWRh-h71g&ab_channel=40Hertz
Почему это может беспокоить?
Нравственное использование дипфейков в настоящее время несколько неоднозначно.
Прямо сейчас мы видим кучу новых или бесполезных реализаций этой технологии, но очень скоро она может легко стать более распространенной и трудной для идентификации.
Это порождает множество проблем, как упоминалось выше, от явного содержания до вводящего в заблуждение политического содержания. Представьте себе возможные последствия, если расстроенный мировой лидер (а таких, кажется, много) увидит дипфейковое видео с угрозой ядерной войны.
Я не говорю, что видео Кендрика является признаком того, что мы идем по обреченному пути, но видео приносит демонстрируют, что дипфейки становится легче создавать и они очень эффективны. Если вид лица Канье, наложенного на тело Кендрика, не достаточен, чтобы дать вам топливо для ночных кошмаров на несколько недель, я не знаю, что будет.
А пока включите альбом Кендрика – он, без сомнения, станет классикой, верно?