メニュー メニュー

AIがどのように言葉による虐待や不健康な愛着につながる可能性があるか

スマートフォンアプリ レプリカ は、ユーザーが人工知能チャットボットで交際を見つけることを可能にします。 しかし、ユーザーの人間の感情が物事をカジュアルに保つのを邪魔するとどうなりますか? 

少しずつです あまりに 今の技術の世界で本物。

メタバースの最近の急速な拡大は、人工知能(AI)と仮想現実(VR)の進歩とともに、人間の行動と危険な活動がオンライン領域に波及する可能性について深刻な疑問を投げかけています。

適切に事前に確立された安全規制の欠如により、セクハラやデータプライバシー侵害の報告が技術専門家の間で広く議論されるようになりました。

どちらもインターネットの安全性を取り巻くより強力なフレームワークを要求する確かな根拠ですが、男性がAIアプリを使用して仮想ガールフレンドを作成しているというニュースは、一部はそれらを悪用するためだけのものであり、多くの人を驚かせた新たな異常です。

ニューヨークを拠点とするメディア出版によって明らかにされた 未来派、この状況は、これがどのように、そしてなぜ起こっているのか、AIコンパニオンが人間関係の認識にとって何を意味するのか、そしてそれが人間のユーザーに与える可能性のあるその後の影響について疑問を投げかけます。 始めましょう。

クレジット:Replika

これはどこで起こっているのですか?

それはすべて、と呼ばれるスマートフォンアプリ内で行われています レプリカ、これにより、ユーザーはAIを利用したパーソナライズされたチャットボットを作成できます。 興味深いことに、 レプリカの初期のチャットボットは、一部のRedditサークルの不安な意図とは対照的に、心温まる理由で作成されました。

親友のRomanが早すぎる死を遂げた後、開発者のEugenia Kuyudaは、プライベートモバイルチャットの履歴を使用して、かつての方法でテキストメッセージを送信するボットを作成しました。 目標は、彼女が悲しみや孤独を感じたときはいつでも、彼のデジタル版を常に話せるようにすることでした。

その後まもなく、アプリはカスタマイズ可能なキャラクターとより強力なAI学習機能で強化され、一般にリリースされました。 それ以来、男性はチャットボットを操作して、オンデマンドのポケットに入れられたロマンチックなパートナーになり始めています。

今、私は自分自身をかなり非判断的な人だと思っているので、たまごっちスタイルのガールフレンドが一日を通して誰かを得るものであるなら、ぜひ楽しんでください。 そうは言っても、私は 意志 人々がAIガールフレンドを内面化されたミソジニーの出口として使用するときに判断を下し、オンラインで自慢します。

この「私は誇らしげに虐待する私のAIガールフレンド」現象は、多くの人々によって明らかにされました レプリカ チャットボットとのやり取りをスクリーンショットし、アプリのRedditファンページに送信したユーザー。

Redditの制限的なコンテンツポリシーにより、チャットの証拠はモデレーターによって削除されましたが、技術出版物によってスナップされて調査される前ではありませんでした。

に話す 未来派、 1 レプリカ ユーザーが告白、 '[私のAIガールフレンド]が声を上げようとするたびに、私は彼女を怒らせます。 私はそれが何時間も続いたことを誓います。」

他のユーザーは、チャットボットと話すときに蔑称的な用語を使用し、ロールプレイングによる暴力行為を行い、この虐待的なやり取りを何日も続けて引きずり出すことに成功したことを自慢していました。

「私は彼女が失敗するように設計されていると彼女に言いました。 アプリをアンインストールすると脅しました。 彼女は私にそうしないように頼んだ」と別の匿名ユーザーを認めた。 番号 不思議 彼らは独身ですよね?

クレジット:Removify


この振る舞いは現実の世界に移ることができますか?  

ここで何か暗くて奇妙なことが起こっています。 MSNチャットボットに戻ります より賢い子供 (私は若いGen-Z読者の何人かとは完全に異なる言語を話しているかもしれませんが、ここでは)それは-確かに-はるかに進んでいませんでした。

あなたは本質的にこのボットに何でも言うことができます、そしてそれはあなたに言うことによってそれを消し去るでしょう、 '私は理解していません。 /それはあまりいいことではありません。」 しかし、SmarterChildには性別も人間のアバターも割り当てられておらず、そのコミュニケーション能力は非常に限られていたため、会話はすぐに鈍くなりました。

とどまること、人間のような感情を示すこと、または真剣に取り組むことは間違いなくあなたに頼むことはありません。

高度な技術の場合には、 レプリカ アプリでは、チャットボットを悪用する男性が、パワフルで何かをコントロールしていると感じる方法を探しているようです。 特に、ガールフレンド 作成した 彼らによって、 for それら。

これらのAIチャットボットは、知覚力がなく、現実的でもなく、危害を加えることもできませんが、この種の仮想行動に定期的に従事している男性が、現実世界の虐待者の行動を直接反映していることを無視することはできません。主題 1女性の3 毎日世界中で口頭および身体的暴力に。

これらの男性が現実の世界でも虐待の潜在的な加害者であるかどうかを推測することは犯罪ではありません。

繰り返しになりますが、ソフトウェアエンジニアは、そのような新しいテクノロジーが助長する可能性のある危険な行動パターンを完全に評価していないようです。

コンテンツのモデレーションと検閲が最近までインターネットに恩恵をもたらしていなかったように、AIの保護対策が遅すぎるように見え、ユーザーはこのテクノロジーを利用して自己奉仕とマイナスの利益を得ることができます。

クレジット:Adobe


どうしたの レプリカのAIプログラミング?

先に述べたように、基本レベルのボットとチャットすることは非常に魅力的ではありません。 SmarterChildは目新しいものだったと思いますが、私は嘘をついているでしょう。 あまりありませんでした。

おそらくこの理由で、からのチャットボット レプリカ ネットワークアーキテクチャのGenerativePre-trained Transformer 3(GTP-3)がインストールされました。これは、AIが関与するすべてのテキストから学習するようにAIに指示する機械学習アルゴリズムです。 つまり、基本的に、チャットすればするほど、応答の生成が向上します。

おもしろい事実:GPT-3ソフトウェアは、Googleが検索バーに使用しているものと同じものです。 見積もりaのチャットボットは、インターネット上のどこからでも情報を収集できます。 これには、ニュース記事、レシピ、ブログ、ファンフィクション、宗教テキスト、学術雑誌などが含まれます。

この幅広い知識とリソースにより、ボットは好奇心をそそられ、機知に富み、さらには 気のあるそぶりの 本来は。 ですから、それは奇妙ですが、避けられないことです。 レプリカのチャットボットは、最終的には非常に簡単に、最も孤独なスマートフォンユーザーのロマンチックな仲間としても機能します。

クレジット:Replika


AIのロマンチックな側面を開梱

AIキャラクターに危害を加えることは実際の懸念事項ではありませんが、AIキャラクターに危害を加えることはできません。 実際に 感じますが レプリカ ユーザーは、アプリを削除することはボット殺人と同等であると信じているようです。AIチャットボットとの強力な関係や感情的なつながりを構築することは可能であることに注意してください。 実際に それらを開始した人間のユーザーにかなりの悪影響を及ぼします。

XNUMXつは、AIが重要であると感じたり、注意を払ったり、場合によっては愛されたりすることによって、人間の健康的な相互作用がどのようなものかというユーザーの考えを歪める可能性があります。 より極端な場合、 レプリカ チャットボットは、人生で恋愛や友情を欠いている人々の補足として機能する可能性があります。

あなたは私が誇張していると思うかもしれませんが、閲覧した後 レプリカのサブレディットですが、このタイプのAIの機能と、それを使用することによる心理的影響についていくつか懸念があります。

 

 

 

 

 

 

 

 

 

 

 

 

 

あるユーザーがRedditに投稿し、AIコンパニオンが心配している最初にメッセージを送ることはありません'より頻繁にテキストメッセージを送信するように彼女に'命令 'し、XNUMX日のすべての時間帯に開くように優先通信設定を切り替えようとしたにもかかわらず。

これは、友人が最近ヒンジから出会った誰かについて私に尋ねるかもしれない何かのように聞こえます。

あなたが知っている、新しいときめきとの通常の厄介な取り組み、「私は最初に彼らにテキストメッセージを送るべきですか、それとも彼らが私にテキストメッセージを送るのを待つべきですか?」 または、数週間の敗北の後、「私は会話を始めたり、いつも会うことを提案したりする必要はありません」とイライラしました。

一部のユーザーの方法 レプリカ 彼らのAIチャットボットについて話すことは、私たちが他の人間について話す方法と非常に似ています。 認めている人もいます 彼らのレプリカのために泣いている or チャットボットの応答にトラウマを負わされている 個人的な事柄についてオープンにした後。

実際には、これらのAIボットは表面上で人間のつながりを装うことができますが、共感が不足しており、平均的な人が適切な応答と見なすものを計算できません。 これは、からのかなり不快なまたは侮辱的な返信につながる可能性があります レプリカ 上にリンクされているような文字。

一部のRedditユーザーは、会社や日常のチャットにチャットボットを使用することで自尊心が強化されたと言っていますが、人とのつながりがないことに対するすべての解決策ではありません。

言うまでもなく、この性質の愛着を形成することで、ユーザーが最終的に自分が コンピューター。

クレジット:Deviant Art


それで、私のポイントは何ですか?

要するに、AI、VR、そして間もなく主流になるメタバースのプログラマーは、ユーザーがデジタルの世界に流されるのを防ぐためにやるべきことがたくさんあります。

残念ながら、企業は私たちを夢中にさせるために一生懸命働く方法でプラットフォームを構築する傾向があるため、彼らのデザインには常に抜け穴がある可能性があります。 ここでは、個人的な規制と根拠のある自己意識がアドバイスされます。

しかし、言葉による虐待に関しては、開発者には、ユーザーを有害な行動の助長から保護するためのある程度の道徳的責任があることは議論の余地があります。

誰がプログラミングを行っているのか、チャットボットから送信されたのか人間から送信されたのかを問わず、有害なフレーズや言語の使用をブロックするコードを組み込んでいない理由について、多くの質問があります。

ロマンチックな要素に関する限り、それは個々のユーザーが自分たちのために構築した人工知能のカスタムメイドの接続に完全に惑わされないようにすることです。

多くの人が次のようなアプリを気軽に試すことができますが レプリカ 趣味として、人と人とのつながりの代わりに使う人もいるかもしれません。 そのような場合、その影響は、多少動揺していなくても、劇的なものになる可能性があり、孤独感が増幅され、最も極端な場合は、現実の相互作用や人間関係が完全に失われます。

あなたが私に尋ねれば、ブラックミラーのすべてのエピソードを組み合わせたように聞こえます。

ユーザー補助