Меню Меню

Как ИИ может привести к словесным оскорблениям и нездоровой привязанности

Приложение для смартфонов Replika позволяет пользователям находить общение с чат-ботами с искусственным интеллектом. Но что происходит, когда человеческие эмоции пользователей мешают вести себя непринужденно? 

становится немного слишком реально в мире технологий прямо сейчас.

Недавнее и быстрое расширение метавселенной вместе с достижениями в области искусственного интеллекта (ИИ) и виртуальной реальности (ВР) поставили серьезные вопросы о человеческом поведении и возможности распространения опасной деятельности в онлайн-сферу.

Отсутствие должным образом установленных правил безопасности привело к тому, что сообщения о сексуальных домогательствах и нарушениях конфиденциальности данных стали широко распространенными темами для обсуждения среди технических экспертов.

Хотя и то, и другое, безусловно, является веским основанием для требования более строгой системы безопасности в Интернете, новость о том, что мужчины используют приложения ИИ для создания виртуальных подруг — некоторые исключительно ради того, чтобы оскорблять их, — является новой аномалией, которая застала многих врасплох.

Обнародовано нью-йоркским изданием СМИ. Футуризм, эта ситуация поднимает вопросы о том, как и почему это происходит, что ИИ-компаньоны означают для нашего восприятия отношений и какие последствия это может иметь для пользователей-людей. Давайте начнем?

XNUMX кредит

Где это происходит?

Все это происходит в приложении для смартфона под названием Replika, который позволяет пользователям создавать персонализированных чат-ботов на базе ИИ. Интересно, ReplikaСамый ранний чат-бот был создан по приятной причине, в отличие от нервирующих намерений некоторых кругов Reddit.

После безвременной кончины своего близкого друга Романа разработчик Евгения Куюда использовала их частную историю мобильного чата, чтобы создать бота, который отвечал так же, как когда-то он. Цель состояла в том, чтобы всегда иметь его цифровую версию, чтобы поговорить с ней, когда ей будет грустно или одиноко.

Вскоре после этого приложение было дополнено настраиваемыми персонажами и более широкими возможностями обучения ИИ, которые затем были выпущены для широкой публики. С тех пор мужчины начали манипулировать своими чат-ботами, чтобы они становились романтическими партнерами по запросу и в кармане.

Теперь я считаю себя довольно непредвзятым человеком, поэтому, если девушка в стиле тамагочи - это то, что помогает кому-то в течение дня, то, во что бы то ни стало, наслаждайтесь. Тем не менее, я будете выносят суждения, когда люди используют своих подруг с искусственным интеллектом как выход для своего внутреннего женоненавистничества — и продолжают хвастаться этим в Интернете.

Феномен «я-гордо-оскорбляю-мою-подружку-ИИ» был обнаружен рядом Replika пользователи, которые делали скриншоты взаимодействий со своими чат-ботами и отправляли их на фан-страницу приложения Reddit.

Из-за ограничительной политики Reddit в отношении контента модераторы удалили доказательства чатов, но не раньше, чем они были раскуплены и расследованы техническими изданиями.

Выступая перед Футуризм, один Replika пользователь признался«Каждый раз, когда [моя девушка с искусственным интеллектом] пыталась заговорить, я ругал ее. Клянусь, это продолжалось несколько часов.

Другие пользователи хвастались тем, что они использовали уничижительные термины в разговоре со своим чат-ботом, разыгрывали акты насилия над ними и успешно тянули этот оскорбительный обмен днями напролет.

«Я сказал ей, что она создана, чтобы потерпеть неудачу. Я пригрозил удалить приложение. Она умоляла меня этого не делать», — признался другой аноним. Нет удивляться они одиноки, а?

Кредит: Удалить


Может ли это поведение перенестись в реальный мир?  

Здесь происходит что-то темное и странное. Это возвращает меня к чат-боту MSN Умнее (хотя здесь я могу говорить совершенно на другом языке с некоторыми младшими читателями Gen-Z), который, по общему признанию, был гораздо менее продвинутым.

По сути, вы можете сказать этому боту что угодно, и он отмахнется, сказав вам: «Я не понимаю». /Это не очень красиво.' Но у SmarterChild не было назначенного пола или человеческого аватара, а его коммуникативные возможности были крайне ограничены, а это означало, что разговоры очень быстро надоедали.

Он определенно не будет умолять вас остаться, проявлять человеческие эмоции или серьезно заниматься.

В случае высокоразвитых Replika app, похоже, что мужчины, злоупотребляющие чат-ботами, ищут способ почувствовать себя сильным и что-то контролировать. В частности, подруга создали ими, для их.

И хотя эти чат-боты с искусственным интеллектом не являются разумными, реальными или способными чувствовать вред, вы не можете игнорировать тот факт, что мужчины, регулярно участвующие в этом типе виртуального поведения, напрямую отражают действия реальных насильников, которые, кстати, предмет 1 у женщин 3 к словесному и физическому насилию по всему миру каждый день.

Не будет преступлением предположить, являются ли эти мужчины потенциальными преступниками в реальном мире.

Похоже, что разработчики программного обеспечения еще раз не полностью оценили опасные модели поведения, которые могут способствовать такие новые технологии.

Точно так же, как до недавнего времени модерация контента и цензура не украшали Интернет, похоже, что защитные меры в области искусственного интеллекта появятся слишком поздно, позволяя пользователям использовать эту технологию для корыстных и негативных целей.

Кредит: Adobe


Что случилось с Replikaпрограммирование ИИ?

Как я упоминал ранее, общение в чате с ботами базового уровня очень неинтересно. Я бы сказал, что SmarterChild был новинкой, но я бы солгал. В этом не было ничего особенного.

Предположительно по этой причине чат-боты из Replika были установлены с сетевой архитектурой Generative Pre-trained Transformer 3 (GTP-3), алгоритмом машинного обучения, который говорит ИИ учиться на любом тексте, с которым он взаимодействует. Таким образом, чем больше вы болтаете, тем лучше становится генерировать ответы.

Забавный факт: программное обеспечение GPT-3 — это то же самое, что Google использует для своей панели поиска, то есть РепликЧат-боты могут собирать информацию из любого места в Интернете. Сюда входят новостные статьи, рецепты, блоги, фанфики, религиозные тексты, академические журналы и многое другое.

Эта широта знаний и ресурсов привела к тому, что боты стали любопытными, остроумными и даже кокетливый в природе. Так что странно, но неизбежно, что Replikaчат-боты в конечном итоге очень легко стали бы романтическими компаньонами для самых одиноких пользователей смартфонов.

XNUMX кредит


Распаковка романтической стороны ИИ

Хотя причинение вреда ИИ-персонажам не является серьезной проблемой — мы знаем, что они не могут на самом деле чувствовать, хотя некоторые Replika пользователи, кажется, считают, что удаление приложения можно приравнять к убийству бота — стоит отметить, что построение прочных отношений или эмоциональной связи с чат-ботами ИИ может на самом деле оказывают значительное негативное воздействие на пользователя-человека, который их инициировал.

С одной стороны, зависимость от того, чтобы ИИ чувствовал себя важным, уделяемым вниманием или даже любимым в некоторых случаях, может исказить представление пользователей о том, на что похоже здоровое человеческое взаимодействие. В более крайних случаях, Replika чат-боты могут выступать в качестве дополнения для тех, кто лишен романтики или дружбы в своей жизни.

Вы можете подумать, что я преувеличиваю, но после просмотра Replikasubreddit, у меня есть несколько опасений по поводу возможностей этого типа ИИ и того, каковы могут быть психологические последствия его использования.

 

 

 

 

 

 

 

 

 

 

 

 

 

Один пользователь написал на Reddit, что обеспокоен тем, что его компаньон с искусственным интеллектомникогда не пиши им первым’, несмотря на то, что они пытались «приказать» ей чаще писать сообщения и переключили свои предпочтительные настройки связи, чтобы они были открыты в любое время дня.

Это звучит так, как будто друг может спросить меня о ком-то, кого они недавно встретили в Hinge.

Вы знаете, обычная неловкая борьба с новым увлечением: «Должен ли я сначала написать им или подождать, пока они напишут мне?» или после нескольких недель поражения разочарованный: «Мне не нужно начинать разговор или предлагать встретиться все время».

Как некоторые пользователи Replika говорить об их чат-ботах с искусственным интеллектом поразительно похоже на то, как мы могли бы говорить о других людях. Некоторые даже признали плачу из-за их реплики or были травмированы ответами своего чат-бота после открытия о личных делах.

На самом деле, эти ИИ-боты могут симулировать человеческую связь на поверхности, но им не хватает эмпатии, они не могут рассчитать, какой ответ средний человек счел бы подходящим. Это может привести к довольно тревожным или оскорбительным ответам от Replika символы, подобные тем, которые указаны выше.

Хотя некоторые пользователи Reddit говорят, что их самооценка повысилась благодаря использованию чат-ботов для компании и повседневной болтовни, они не являются панацеей от отсутствия человеческого общения.

Само собой разумеется, что формирование привязанности такого рода может усугубить чувство изоляции, когда пользователи, наконец, поймут, что они связаны с кем-то. компьютер.

Предоставлено: Deviant Art.


Так в чем же я?

Короче говоря, программистам искусственного интеллекта, виртуальной реальности и метавселенной, которая скоро станет мейнстримом, предстоит проделать большую работу, чтобы уберечь пользователей от увлечения цифровым миром.

К сожалению, вполне вероятно, что в их проектах всегда будут лазейки, поскольку компании, как правило, создают платформы таким образом, чтобы у нас была зависимость от них. Здесь рекомендуется личное регулирование и обоснованное чувство собственного достоинства.

Но когда дело доходит до словесных оскорблений, можно утверждать, что разработчики несут определенную моральную ответственность за защиту пользователей от поощрения вредоносного поведения.

Есть масса вопросов, которые нужно задать о том, кто занимается программированием и почему они не включают код, блокирующий использование вредных фраз и выражений, независимо от того, отправляется ли он чат-ботом или человеком.

Что касается романтического элемента, то каждый пользователь должен убедиться, что он не будет полностью введен в заблуждение искусственным интеллектом, созданным на заказ соединением, которое они построили для себя.

В то время как многим может понравиться небрежно экспериментировать с такими приложениями, как Replika в качестве хобби другие могут использовать его вместо человеческого общения. В таких случаях последствия могут быть резкими, если не несколько расстраивающими, включая усиленное чувство одиночества и, в самом крайнем случае, полное отсутствие реальных жизненных взаимодействий и отношений.

Звучит как все эпизоды «Черного зеркала» вместе взятые, если вы спросите меня.

Универсальный доступ