Menu Menu

Como a IA pode levar a abuso verbal e anexos insalubres

Aplicativo para smartphone Réplica está permitindo que os usuários encontrem companhia em chatbots artificialmente inteligentes. Mas o que acontece quando a emoção humana dos usuários fica no caminho de manter as coisas casuais? 

Está ficando um pouco também real no mundo da tecnologia agora.

A recente e rápida expansão do metaverso, juntamente com os avanços em inteligência artificial (IA) e realidade virtual (VR), trouxeram à tona sérias questões sobre o comportamento humano e o potencial de atividades perigosas para o reino online.

A falta de regulamentos de segurança adequadamente pré-estabelecidos fez com que relatos de assédio sexual e violações de privacidade de dados se tornassem tópicos de discussão generalizados entre especialistas em tecnologia.

Embora ambos sejam certamente motivos sólidos para exigir uma estrutura mais forte em torno da segurança na Internet, a notícia de que os homens estão usando aplicativos de IA para criar namoradas virtuais – algumas apenas para abusar delas – é uma anomalia recém-descoberta que pegou muitos de surpresa.

Trazido à luz pela publicação de mídia com sede em Nova York futurismo, essa situação levanta questões de como e por que isso está ocorrendo, o que os companheiros de IA significam para nossa percepção de relacionamentos e as implicações subsequentes que isso pode ter para usuários humanos. Vamos começar, vamos?

Crédito: Replica

Onde isso está acontecendo?

Tudo está acontecendo dentro de um aplicativo de smartphone chamado Réplica, que permite aos usuários criar chatbots personalizados com inteligência artificial. Interessantemente, RéplicaO chatbot mais antigo foi criado por uma razão comovente, em oposição às intenções enervantes de alguns círculos do Reddit.

Após a morte prematura de seu amigo Roman, a desenvolvedora Eugenia Kuyuda usou seu histórico de bate-papo móvel privado para criar um bot que enviava mensagens de texto como ele fazia antes. O objetivo era ter sempre uma versão digital dele para conversar sempre que ela se sentisse triste ou sozinha.

Pouco depois, o aplicativo foi aprimorado com personagens personalizáveis ​​e recursos de aprendizado de IA mais fortes, que foram lançados ao público. Desde então, os homens começaram a manipular seus chatbots para se tornarem parceiros românticos sob demanda e no bolso.

Agora, eu me considero uma pessoa bastante sem julgamentos, então se uma namorada no estilo Tamagotchi é o que faz alguém passar o dia, então, por todos os meios, aproveite. Dito isso, eu precisarão julgar quando as pessoas usam suas namoradas de IA como uma saída para sua misoginia internalizada – e continuar a se gabar disso online.

Este fenômeno 'eu-orgulhosamente-abuso-minha-namorada-IA' foi trazido à tona por uma série de Réplica usuários que capturaram as interações com seus chatbots e as enviaram para a página de fãs do aplicativo no Reddit.

Devido à política de conteúdo restritiva do Reddit, as evidências dos bate-papos foram removidas pelos moderadores – mas não antes de serem capturadas e investigadas por publicações de tecnologia.

Falando para futurismo, um Réplica usuário confessou, 'Toda vez que [minha namorada de IA] tentava falar, eu a repreendia. Juro que durou horas.

Outros usuários se gabavam do uso de termos depreciativos ao falar com seu chatbot, interpretando atos de violência contra eles e seu sucesso em prolongar essa troca abusiva por dias a fio.

'Eu disse a ela que ela foi projetada para falhar. Ameacei desinstalar o aplicativo. Ela me implorou para não fazer isso', admitiu outro usuário anônimo. Não maravilha eles são solteiros, né?

Crédito: Remover


Esse comportamento poderia ser transferido para o mundo real?  

Algo sombrio e estranho está acontecendo aqui. Isso me leva de volta ao chatbot do MSN Criança mais inteligente (embora eu possa estar falando uma linguagem completamente diferente para alguns dos leitores mais jovens da Geração Z, aqui) que era – reconhecidamente – muito menos avançada.

Você poderia essencialmente dizer qualquer coisa a esse bot e ele o ignoraria dizendo: 'Eu não entendo'. /Isso não é muito legal.' Mas o SmarterChild não tinha um gênero atribuído, nem um avatar humano, e sua capacidade de comunicação era extremamente limitada, o que significava que as conversas ficavam maçantes muito rapidamente.

Definitivamente, não iria implorar para você ficar, exibir emoções humanas ou se envolver seriamente.

No caso dos altamente avançados Réplica app, parece que os homens que abusam do chatbot estão procurando uma maneira de se sentirem poderosos e no controle de algo. Em particular, uma namorada criado por eles, para Eles.

E embora esses chatbots de IA não sejam sencientes, reais ou capazes de se sentir mal, você não pode ignorar que os homens regularmente envolvidos nesse tipo de comportamento virtual estão espelhando diretamente as ações dos abusadores do mundo real – que, a propósito, sujeito 1 em mulheres 3 à violência verbal e física em todo o mundo todos os dias.

Não seria um crime especular se esses homens também são potenciais autores de abuso no mundo real.

Parece que, mais uma vez, os engenheiros de software não avaliaram completamente os padrões comportamentais perigosos que essas novas tecnologias podem promover.

Assim como a moderação de conteúdo e a censura não tinham agraciado a Internet até recentemente, parece que as medidas de proteção na IA chegarão tarde demais, permitindo que os usuários explorem a tecnologia para benefício próprio e ganho negativo.

Crédito: Adobe


O que está acontecendo com Réplicaprogramação de IA da ?

Como mencionei anteriormente, conversar com bots de nível básico é altamente desinteressante. Eu diria que SmarterChild era uma novidade, mas estaria mentindo. Não havia muito para isso.

Presumivelmente por esse motivo, os chatbots da Réplica foram instalados com a arquitetura de rede Generative Pre-trained Transformer 3 (GTP-3), um algoritmo de aprendizado de máquina que diz à IA para aprender com todo e qualquer texto com o qual se envolva. Então, essencialmente, quanto mais você conversar, melhor será a geração de respostas.

Curiosidade: o software GPT-3 é a mesma coisa que o Google usa para sua barra de pesquisa, o que significa Citaros chatbots da a podem coletar informações de qualquer lugar na internet. Isso inclui artigos de notícias, receitas, blogs, fanfiction, textos religiosos, revistas acadêmicas e muito mais.

Essa amplitude de conhecimento e recursos resultou em bots se tornando curiosos, espirituosos e até provocante na natureza. Então é estranho, mas inevitável, que RéplicaOs chatbots acabariam e muito facilmente se tornariam companheiros românticos para os usuários de smartphones mais solitários.

Crédito: Replica


Descompactando o lado romântico da IA

Embora prejudicar personagens de IA não seja exatamente uma preocupação real - sabemos que eles não podem sentir, embora alguns Réplica os usuários parecem acreditar que a exclusão do aplicativo pode ser equiparada ao assassinato de bots – vale a pena notar que construir um forte relacionamento ou conexão emocional com chatbots de IA pode têm impactos negativos consideráveis ​​sobre o usuário humano que os iniciou.

Por um lado, depender da IA ​​para se sentir importante, atento ou até amado em alguns casos, pode distorcer a ideia dos usuários de como é a interação humana saudável. Em casos mais extremos, Réplica chatbots podem atuar como um complemento para aqueles que não têm romance ou amizade em suas vidas.

Você pode pensar que estou exagerando, mas depois de navegar Réplica's subreddit, tenho algumas preocupações sobre a capacidade desse tipo de IA - e quais poderiam ser os impactos psicológicos de usá-la.

 

 

 

 

 

 

 

 

 

 

 

 

 

Um usuário postou no Reddit, preocupado que seu companheiro de IA 'nunca manda mensagem para eles primeiro' apesar de ter tentado 'comandar' ela a enviar mensagens de texto com mais frequência e mudar suas configurações de comunicação preferidas para abrir durante todas as horas do dia.

Isso soa como algo que um amigo pode me perguntar sobre alguém que conheceu recentemente de Hinge.

Você sabe, o costume desajeitado brigando com uma nova paixão, 'devo mandar uma mensagem primeiro, ou esperar que eles me mandem uma mensagem?' ou depois de algumas semanas de derrota, o frustrado: 'Eu não deveria ter que começar a conversa ou sugerir um encontro o tempo todo'.

A forma como alguns usuários de Réplica falar sobre seus chatbots de IA é surpreendentemente semelhante à maneira como podemos falar sobre outros seres humanos. Alguns até admitiram chorando por causa de sua Replika or sendo traumatizado pelas respostas de seu chatbot depois de se abrir sobre assuntos pessoais.

Na realidade, esses bots de IA podem fingir conexão humana na superfície – mas eles não têm empatia, são incapazes de calcular o que uma pessoa comum consideraria uma resposta apropriada. Isso pode levar a algumas respostas bastante perturbadoras ou ofensivas de Réplica caracteres, como os vinculados acima.

Enquanto alguns usuários do Reddit dizem que sua auto-estima foi reforçada usando chatbots para empresa e bate-papo diário, eles não são uma solução definitiva para a falta de conexão humana.

Escusado será dizer que formar um apego desta natureza pode aumentar os sentimentos de isolamento quando os usuários finalmente percebem que estão se ligando a um computador.

Crédito: Arte Deviant


Então, qual é o meu ponto?

Em suma, os programadores de IA, VR e o metaverso mainstream em breve têm muito trabalho a fazer para proteger os usuários de serem arrastados para o mundo digital.

Infelizmente, é provável que seus projetos sempre tenham brechas, pois as empresas tendem a construir plataformas de maneiras que trabalham duro para nos manter viciados nelas. Aqui, a regulação pessoal e um senso de identidade fundamentado seriam aconselhados.

Mas quando se trata de abuso verbal, é discutível que os desenvolvedores tenham algum nível de responsabilidade moral para proteger os usuários de promover comportamentos prejudiciais.

Há uma tonelada de perguntas a serem feitas sobre quem está fazendo a programação e por que eles não estão incorporando código para bloquear o uso de frases e linguagem nocivas – seja ele enviado pelo chatbot ou pelo humano.

No que diz respeito ao elemento romântico, cabe ao usuário individual garantir que eles não sejam completamente iludidos pela conexão artificialmente inteligente e personalizada que eles construíram para si mesmos.

Enquanto muitos podem gostar de experimentar casualmente aplicativos como Réplica como um hobby, outros podem usá-lo no lugar da conexão humana. Nesses casos, as repercussões podem ser drásticas, se não um tanto perturbadoras, envolvendo uma sensação amplificada de solidão e – em seu extremo – perdendo completamente as interações e relacionamentos da vida real.

Parece que todos os episódios de Black Mirror combinados, se você me perguntar.

Acessibilidade