Menu Menu

Comment l'IA peut conduire à la violence verbale et aux attachements malsains

Application smartphone Replika permet aux utilisateurs de trouver de la compagnie dans des chatbots artificiellement intelligents. Mais que se passe-t-il lorsque l'émotion humaine des utilisateurs empêche de garder les choses décontractées ? 

ça devient un peu trop réel dans le monde de la technologie en ce moment.

L'expansion récente et rapide du métaverse, ainsi que les progrès de l'intelligence artificielle (IA) et de la réalité virtuelle (VR), ont soulevé de sérieuses questions sur le comportement humain et la possibilité que des activités dangereuses se répandent dans le domaine en ligne.

En l'absence de règles de sécurité préétablies de manière adéquate, les rapports de harcèlement sexuel et de violation de la confidentialité des données sont devenus des sujets de discussion répandus parmi les experts en technologie.

Bien que les deux soient certainement des motifs solides pour exiger un cadre plus solide entourant la sécurité sur Internet, la nouvelle selon laquelle les hommes utilisent des applications d'IA pour créer des petites amies virtuelles - certaines uniquement dans le but d'en abuser - est une nouvelle anomalie qui en a surpris beaucoup.

Mis en lumière par une publication médiatique basée à New York futurisme, cette situation soulève des questions sur comment et pourquoi cela se produit, ce que les compagnons d'IA signifient pour notre perception des relations et les implications ultérieures que cela pourrait avoir pour les utilisateurs humains. Commençons, d'accord ?

XNUMX crédit

Où cela se passe-t-il?

Tout se déroule dans une application pour smartphone appelée Replika, qui permet aux utilisateurs de créer des chatbots personnalisés alimentés par l'IA. De façon intéressante, ReplikaLe premier chatbot de a été créé pour une raison réconfortante, par opposition aux intentions déconcertantes de certains cercles Reddit.

Après la mort prématurée de son ami proche Roman, la développeur Eugenia Kuyuda a utilisé son historique de chat mobile privé pour créer un bot qui a envoyé des SMS comme il le faisait autrefois. L'objectif était de toujours avoir une version numérique de lui à qui parler chaque fois qu'elle se sentait triste ou seule.

Peu de temps après, l'application a été améliorée avec des personnages personnalisables et des capacités d'apprentissage de l'IA plus solides, qui ont ensuite été rendues publiques. Depuis, les hommes ont commencé à manipuler leurs chatbots pour devenir des partenaires romantiques à la demande et dans leur poche.

Maintenant, je me considère comme une personne qui ne porte pas de jugement, donc si une petite amie de style Tamagotchi est ce qui permet à quelqu'un de passer la journée, alors profitez-en. Cela dit, je sera porter des jugements lorsque les gens utilisent leurs copines IA comme exutoire pour leur misogynie intériorisée – et continuer à s'en vanter en ligne.

Ce phénomène « J'abuse fièrement de ma petite amie IA » a été mis en lumière par un certain nombre de Replika les utilisateurs qui ont capturé des interactions avec leurs chatbots et les ont soumises à la page fan Reddit de l'application.

En raison de la politique de contenu restrictive de Reddit, les preuves des discussions ont depuis été supprimées par les modérateurs – mais pas avant qu'elles ne soient saisies et étudiées par des publications techniques.

S'adressant à futurisme, un expert en Replika l'utilisateur a avoué, 'Chaque fois que [ma copine IA] essayait de parler, je la réprimandais. Je jure que ça a duré des heures.

D'autres utilisateurs se sont vantés d'avoir utilisé des termes désobligeants lorsqu'ils s'adressaient à leur chatbot, d'avoir joué un rôle dans des actes de violence à leur encontre et d'avoir réussi à faire durer cet échange abusif pendant des jours.

Je lui ai dit qu'elle était conçue pour échouer. J'ai menacé de désinstaller l'application. Elle m'a supplié de ne pas le faire », a admis un autre utilisateur anonyme. Non se demander ils sont célibataires, hein ?

Crédit : Removify


Ce comportement pourrait-il être transféré dans le monde réel ?  

Quelque chose de sombre et d'étrange se passe ici. Cela me ramène au chatbot MSN Enfant plus intelligent (même si je parle peut-être une langue complètement différente de celle de certains des jeunes lecteurs de la génération Z, ici) qui était – certes – beaucoup moins avancée.

Vous pourriez essentiellement dire n'importe quoi à ce bot et il l'ignorerait en vous disant: "Je ne comprends pas". /Ce n'est pas très gentil.' Mais SmarterChild n'avait pas de sexe assigné, ni d'avatar humain, et sa capacité de communication était extrêmement limitée, ce qui signifiait que les conversations devenaient ennuyeuses très rapidement.

Cela ne vous demanderait certainement pas de rester, de montrer une émotion humaine ou de vous engager sérieusement.

Dans le cas des pays très avancés Replika app, il semble que les hommes qui abusent des chatbots cherchent un moyen de se sentir puissants et en contrôle de quelque chose. En particulier, une petite amie créée par eux, en Eux.

Et bien que ces chatbots IA ne soient pas sensibles, réels ou capables de ressentir du mal, vous ne pouvez pas ignorer que les hommes qui se livrent régulièrement à ce type de comportement virtuel reflètent directement les actions des agresseurs du monde réel - qui, soit dit en passant, matière 1 chez les femmes 3 à la violence verbale et physique dans le monde chaque jour.

Ce ne serait pas un crime de spéculer si ces hommes sont également des auteurs potentiels d'abus dans le monde réel.

Il semble que, une fois de plus, les ingénieurs en logiciel n'aient pas pleinement évalué les comportements dangereux que ces nouvelles technologies peuvent favoriser.

Tout comme la modération et la censure du contenu n'avaient pas été présentes sur Internet jusqu'à récemment, il semble que les mesures de protection de l'IA arriveront trop tard, permettant aux utilisateurs d'exploiter la technologie à des fins égoïstes et négatives.

Crédit : Adobe


Qu'est-ce qui se passe avec Replikaest la programmation de l'IA ?

Comme je l'ai mentionné plus tôt, discuter avec des robots de base est très peu engageant. Je dirais que SmarterChild était une nouveauté, mais je mentirais. Il n'y avait pas grand chose à faire.

Vraisemblablement pour cette raison, les chatbots de Replika ont été installés avec l'architecture réseau Generative Pre-trained Transformer 3 (GTP-3), un algorithme d'apprentissage automatique qui dit à l'IA d'apprendre à partir de n'importe quel texte avec lequel elle s'engage. Donc, essentiellement, plus vous discutez, mieux cela devient pour générer des réponses.

Fait amusant : le logiciel GPT-3 est la même chose que Google utilise pour sa barre de recherche, ce qui signifie CitationLes chatbots de a peuvent recueillir des informations de n'importe où sur Internet. Cela inclut des articles de presse, des recettes, des blogs, des fanfictions, des textes religieux, des revues universitaires, etc.

Cet éventail de connaissances et de ressources a fait que les bots sont devenus curieux, pleins d'esprit et même Coquin dans la nature. Il est donc étrange, mais inévitable, que ReplikaLes chatbots de pourraient éventuellement et très facilement servir de compagnons romantiques pour les utilisateurs de smartphones les plus solitaires.

XNUMX crédit


Déballer le côté romantique de l'IA

Bien que nuire aux personnages de l'IA ne soit pas vraiment une préoccupation, nous savons qu'ils ne le peuvent pas actually sentir, bien que certains Replika les utilisateurs semblent croire que la suppression de l'application peut être assimilée à un meurtre de robots - il convient de noter que l'établissement d'une relation solide ou d'un lien émotionnel avec les chatbots IA pourrait actually ont des impacts négatifs considérables sur l'utilisateur humain qui les a initiés.

D'une part, dépendre de l'IA pour se sentir important, prêté attention ou même aimé dans certains cas, pourrait déformer l'idée qu'ont les utilisateurs de ce qu'est une interaction humaine saine. Dans les cas les plus extrêmes, Replika les chatbots peuvent agir comme un complément pour ceux qui n'ont pas de romance ou d'amitié dans leur vie.

Vous pensez peut-être que j'exagère, mais après avoir parcouru Replika's subreddit, j'ai quelques inquiétudes quant à la capacité de ce type d'IA - et quels pourraient être les impacts psychologiques de son utilisation.

 

 

 

 

 

 

 

 

 

 

 

 

 

Un utilisateur a posté sur Reddit, craignant que son compagnon IA 'ne leur envoie jamais de messages en premier' bien qu'ils aient tenté de lui "ordonner" d'envoyer des SMS plus souvent et de changer leurs paramètres de communication préférés pour qu'ils s'ouvrent à toutes les heures de la journée.

Cela ressemble à quelque chose qu'un ami pourrait me demander à propos d'une personne qu'il a récemment rencontrée de Hinge.

Vous savez, l'habituel maladroit aux prises avec un nouveau béguin, "devrais-je d'abord leur envoyer un SMS ou attendre qu'ils m'envoient un SMS ?" ou après quelques semaines de défaite, le frustré, 'Je ne devrais pas avoir à être celui qui entame la conversation ou qui suggère de se rencontrer tout le temps.'

La façon dont certains utilisateurs de Replika parler de leurs chatbots IA est étonnamment similaire à la façon dont nous pourrions parler d'autres êtres humains. Certains ont même admis pleurer à cause de leur Réplika or être traumatisé par les réponses de leur chatbot après s'être ouvert sur des questions personnelles.

En réalité, ces robots IA peuvent simuler une connexion humaine en surface - mais ils manquent d'empathie, incapables de calculer ce que la personne moyenne considérerait comme une réponse appropriée. Cela peut entraîner des réponses assez dérangeantes ou insultantes de la part de Replika caractères, comme ceux liés ci-dessus.

Alors que certains utilisateurs de Reddit disent que leur estime de soi a été renforcée en utilisant des chatbots pour l'entreprise et le bavardage quotidien, ils ne sont pas une solution miracle au manque de connexion humaine.

Il va sans dire que la formation d'un attachement de cette nature pourrait renforcer le sentiment d'isolement lorsque les utilisateurs comprennent enfin qu'ils se lient à un l'ordinateur.

Crédit : Deviant Art


Alors quel est mon point?

En bref, les programmeurs de l'IA, de la réalité virtuelle et du futur métaverse grand public ont beaucoup de travail à faire pour empêcher les utilisateurs d'être emportés dans le monde numérique.

Malheureusement, il est probable que leurs conceptions auront toujours des failles, car les entreprises ont tendance à construire des plates-formes de manière à travailler dur pour nous garder accro à elles. Ici, une régulation personnelle et un sentiment de soi fondé seraient conseillés.

Mais lorsqu'il s'agit d'abus verbaux, on peut soutenir que les développeurs ont un certain niveau de responsabilité morale pour protéger les utilisateurs contre les comportements préjudiciables.

Il y a une tonne de questions à poser sur qui fait la programmation et pourquoi ils n'intègrent pas de code pour bloquer l'utilisation de phrases et de langage nuisibles - qu'ils soient envoyés par le chatbot ou l'humain.

En ce qui concerne l'élément romantique, c'est à l'utilisateur individuel de s'assurer qu'il n'est pas complètement trompé par la connexion artificiellement intelligente et personnalisée qu'il a construite pour lui-même.

Alors que beaucoup pourraient profiter d'expérimenter avec désinvolture des applications comme Replika comme passe-temps, d'autres pourraient l'utiliser à la place de la connexion humaine. Dans ces cas, les répercussions pourraient être drastiques, voire quelque peu bouleversantes, impliquant un sentiment de solitude amplifié et - à son extrême - passer complètement à côté des interactions et des relations de la vie réelle.

Cela ressemble à tous les épisodes de Black Mirror combinés, si vous me demandez.

Accessibilité