Меню Меню

Нераскрытое использование искусственного интеллекта Netflix вызывает дебаты о манипулировании СМИ

Netflix подвергся критике за включение нераскрытых изображений искусственного интеллекта в новый документальный фильм о реальных преступлениях. Негативная реакция вызвала важные дискуссии о манипулировании СМИ. 

Нравится ли вам он, бойтесь его или ненавидите, но ИИ теперь стал частью нашей повседневной жизни. От образования до развлечений, искусственный интеллект будет только расти, формируя почти каждый аспект нашего взаимодействия со средствами массовой информации.

Но эти изменения требуют границ. Непредсказуемость и беспрецедентный рост ИИ делают его опасным инструментом, если не использовать его деликатно. И в последние дни две огромные медиакомпании подверглись критике за то, что не смогли сделать именно это.

Всего через несколько дней после того, как студия A24 подверглась критике за использование Плакаты с искусственным интеллектом В целях продвижения нового фильма «Гражданская война» Netflix начал горячие дебаты об использовании искусственного интеллекта на телевидении и в кино, особенно когда зрители об этом не знают.

Выяснилось, что потоковый сервис использовал искусственный интеллект осужденной убийцы Дженнифер Хан в своем новом документальном фильме о реальных преступлениях «Что сделала Дженнифер». В фильме рассказывается о том, как полиция расследует жестокое убийство матери Хана и попытку убийства ее отца, первоначально считая Дженнифер невиновным свидетелем.

В конце концов она призналась, что организовала наем своих родителей с целью унаследовать их деньги.

Примерно на 28-й минуте фильма школьный друг Пана, Нам Нгуен, описывает ее как «приятного собеседника».

«Знаете, Дженнифер была веселой, счастливой, уверенной в себе и очень искренней», - объясняет он, когда на экране появляются три изображения Пэна.

С тех пор фотографии подверглись тщательному изучению, поскольку объекты на заднем плане, а также детали рук, ушей и волос Дженнифер кажутся искаженными.

Зрители обвинили Netflix в использовании искусственного интеллекта для манипулирования ими, представив ложное представление о Дженнифер Хан, что добавило бы драматической кульминации фильму.

«Использование искусственного интеллекта для манипулирования зрителем во время документального контента определенно является высшим злом», — сказал один из них. Пользователь Instagram. Подавляющее большинство аудитории Netflix было негативным: многие подчеркивали иронию использования ложной информации в фильме о раскрытии «правды».

Хотя Netflix пока не прокомментировал негативную реакцию, решение использовать изображения, созданные ИИ, без раскрытия информации поднимает серьезные этические вопросы об ответственности создателей контента.

Представляя изображения, созданные ИИ, за реальные, создатели контента рискуют исказить правду и увековечить дезинформацию. В случае с «Что сделала Дженнифер» у зрителей могло сложиться неверное представление о Дженнифер Хан на основе сфабрикованных визуальных эффектов, представленных в документальном фильме.

Манипулирование визуальными эффектами с помощью ИИ также вызывает обеспокоенность по поводу подрыва доверия к средствам массовой информации. Когда зрители больше не могут различать реальные и искусственные образы, доверие к основным СМИ оказывается под вопросом. Доверие — это основа журналистики и кинопроизводства, и подобные инциденты только подрывают его.

Некоторые интернет-пользователи полагают, что появление искусственного интеллекта в массовой культуре, особенно его нераскрытое появление в документальном контенте, сигнализирует о конце информационной эпохи.

Хотя в настоящее время существуют законы, регулирующие использование ИИ в США и Европе, в настоящее время существует нет специального законодательства регулирование использования изображений или видео ИИ в документальных фильмах или другом контенте.

Бесконтрольное использование ИИ может повлиять и на тех, кто работает в отрасли. Поскольку технологии искусственного интеллекта продолжают развиваться, растет опасение, что традиционные роли в кинопроизводстве, такие как визажисты и специалисты по визуальным эффектам, могут устареть.

И если изображения, генерируемые искусственным интеллектом, станут нормой, это может иметь глубокие последствия для будущего занятости в развлекательных СМИ.

Когда компании не информируют свою аудиторию о том, что ИИ присутствует в контенте, способность аудитории отличать настоящее от подделки снижается. Таким образом, ценность ИИ как развлекательного инструмента прочно закрепилась в сознании создателей контента.

Продюсеры и медиа-компании обязаны раскрывать информацию об использовании искусственных изображений и обеспечивать, чтобы зрители знали о любых манипуляциях или изменениях, внесенных в визуальные эффекты. Прозрачность способствует доверию и подотчетности — важным элементам поддержания целостности контента, который мы потребляем каждый день.

Универсальный доступ