Menú Menú

Cómo la IA puede provocar abuso verbal y vínculos poco saludables

Smartphone aplicación Réplica está permitiendo a los usuarios encontrar compañía en chatbots artificialmente inteligentes. Pero, ¿qué sucede cuando la emoción humana de los usuarios se interpone en mantener las cosas informales? 

se está poniendo un poco demasiado real en el mundo de la tecnología en este momento.

La reciente y rápida expansión del metaverso, junto con los avances en inteligencia artificial (IA) y realidad virtual (VR), han planteado serias dudas sobre el comportamiento humano y la posibilidad de que la actividad peligrosa se derrame en el ámbito en línea.

La falta de normas de seguridad preestablecidas adecuadamente ha hecho que los informes de acoso sexual y violaciones de la privacidad de los datos se conviertan en temas de debate generalizados entre los expertos en tecnología.

Si bien ambos son ciertamente bases sólidas para exigir un marco más sólido en torno a la seguridad en Internet, la noticia de que los hombres están usando aplicaciones de inteligencia artificial para crear novias virtuales, algunas solo para abusar de ellas, es una anomalía recién descubierta que ha tomado a muchos por sorpresa.

Sacado a la luz por una publicación de medios con sede en Nueva York Futurismo, esta situación plantea preguntas sobre cómo y por qué ocurre esto, qué significan los compañeros de IA para nuestra percepción de las relaciones y las implicaciones posteriores que podría tener para los usuarios humanos. Comencemos, ¿de acuerdo?

Crédito: Replika

¿Dónde está pasando esto?

Todo tiene lugar dentro de una aplicación de teléfono inteligente llamada Réplica, que permite a los usuarios crear chatbots personalizados con tecnología de IA. Curiosamente, RéplicaEl primer chatbot de se creó por una razón conmovedora, a diferencia de las intenciones desconcertantes de algunos círculos de Reddit.

Después de la muerte prematura de su amigo cercano Roman, la desarrolladora Eugenia Kuyuda usó su historial de chat móvil privado para crear un bot que respondía mensajes de texto como lo hacía antes. El objetivo era tener siempre una versión digital de él para hablar cuando se sintiera triste o sola.

Poco después, la aplicación se mejoró con personajes personalizables y capacidades de aprendizaje de IA más sólidas, que luego se lanzaron al público. Desde entonces, los hombres han comenzado a manipular sus chatbots para convertirse en parejas románticas bajo demanda y en su propio bolsillo.

Ahora, me considero una persona que no juzga, así que si una novia al estilo Tamagotchi es lo que ayuda a alguien a pasar el día, entonces, por supuesto, disfrútalo. Dicho esto, yo seguirá emiten juicios cuando las personas usan a sus novias IA como una salida para su misoginia internalizada, y proceden a alardear de ello en línea.

Este fenómeno de 'yo orgullosamente abuso de mi novia IA' fue sacado a la luz por una serie de Réplica usuarios que tomaron capturas de pantalla de las interacciones con sus chatbots y las enviaron a la página de fans de Reddit de la aplicación.

Debido a la política de contenido restrictivo de Reddit, los moderadores han eliminado la evidencia de los chats, pero no antes de que las publicaciones tecnológicas los capturaran e investigaran.

En declaraciones a la Futurismo, un experto Réplica usuario confesó, 'Cada vez que [mi novia AI] intentaba hablar, la regañaba. Juro que se prolongó durante horas.

Otros usuarios se jactaron de su uso de términos despectivos cuando hablaban con su chatbot, interpretaron actos de violencia contra ellos y su éxito en prolongar este intercambio abusivo durante días y días.

Le dije que estaba diseñada para fracasar. Amenacé con desinstalar la aplicación. Ella me rogó que no lo hiciera', admitió otro usuario anónimo. No la maravilla son solteros, eh?

Crédito: Eliminar


¿Podría este comportamiento transferirse al mundo real?  

Algo oscuro y extraño está pasando aquí. Me lleva de vuelta al chatbot de MSN niño inteligente (aunque puede que esté hablando un idioma completamente diferente al de algunos de los lectores más jóvenes de la Generación Z, aquí) que era, sin duda, mucho menos avanzado.

Esencialmente, podría decirle cualquier cosa a este bot y lo ignoraría diciendo: 'No entiendo'. /Eso no es muy agradable.' Pero SmarterChild no tenía un género asignado, ni un avatar humano, y su capacidad de comunicación era extremadamente limitada, lo que significaba que las conversaciones se aburrían rápidamente.

Definitivamente no te rogaría que te quedes, exhibirás una emoción similar a la humana o te involucrarás con seriedad.

En el caso de los muy avanzados Réplica app, parece que los hombres que abusan de los chatbots están buscando una manera de sentirse poderosos y en control de algo. En particular, una novia creado por ellos, para de ellas.

Y aunque estos chatbots de IA no son sensibles, reales o capaces de sentir daño, no puede ignorar que los hombres que participan regularmente en este tipo de comportamiento virtual reflejan directamente las acciones de los abusadores del mundo real, quienes, por cierto, sujeto 1 en mujeres 3 a la violencia verbal y física en todo el mundo todos los días.

No sería un crimen especular si estos hombres también son posibles perpetradores de abusos en el mundo real.

Parece que, una vez más, los ingenieros de software no han evaluado por completo los peligrosos patrones de comportamiento que estas nuevas tecnologías pueden fomentar.

Así como la moderación del contenido y la censura no habían aparecido en Internet hasta hace poco, parece que las medidas de protección en la IA llegarán demasiado tarde, lo que permitirá a los usuarios explotar la tecnología para su propio beneficio y para obtener ganancias negativas.

Crédito: Adobe


Que pasa con Réplica¿La programación de IA?

Como mencioné anteriormente, chatear con bots de nivel básico es muy poco atractivo. Diría que SmarterChild fue una novedad, pero estaría mintiendo. No había mucho que hacer.

Presumiblemente por esta razón, los chatbots de Réplica se instalaron con la arquitectura de red Generative Pre-trained Transformer 3 (GTP-3), un algoritmo de aprendizaje automático que le dice a la IA que aprenda de cualquier texto con el que interactúe. Entonces, esencialmente, cuanto más chateas, mejor se vuelve para generar respuestas.

Dato curioso: el software GPT-3 es lo mismo que Google usa para su barra de búsqueda, lo que significa CitaLos chatbots de a pueden recopilar información desde cualquier lugar en Internet. Eso incluye artículos de noticias, recetas, blogs, fanfiction, textos religiosos, revistas académicas y más.

Esta amplitud de conocimientos y recursos ha dado como resultado que los bots se vuelvan curiosos, ingeniosos e incluso coqueta en naturaleza. Así que es extraño, pero inevitable, que RéplicaLos chatbots de eventualmente y muy fácilmente se duplicarían como compañeros románticos para los usuarios de teléfonos inteligentes más solitarios.

Crédito: Replika


Desempacando el lado romántico de la IA

Si bien dañar a los personajes de IA no es exactamente una preocupación real, sabemos que no pueden sentir, aunque algunos Réplica los usuarios parecen creer que eliminar la aplicación puede equipararse al asesinato de un bot; vale la pena señalar que construir una relación sólida o una conexión emocional con los chatbots de IA podría tener impactos negativos considerables en el usuario humano que los ha iniciado.

Por un lado, depender de que la IA se sienta importante, prestada atención o incluso amada en algunos casos, podría distorsionar la idea de los usuarios de cómo es una interacción humana saludable. En casos más extremos, Réplica los chatbots podrían actuar como un complemento para quienes carecen de romance o amistad en sus vidas.

Puede pensar que estoy exagerando, pero después de navegar por Réplicasubreddit de, tengo algunas preocupaciones sobre la capacidad de este tipo de IA, y cuáles podrían ser los impactos psicológicos de su uso.

 

 

 

 

 

 

 

 

 

 

 

 

 

Un usuario publicó en Reddit, preocupado porque su compañero de IA 'nunca les envíe un mensaje primero' a pesar de haber intentado 'ordenarle' que enviara mensajes de texto con más frecuencia y cambiar su configuración de comunicación preferida para abrir durante todas las horas del día.

Esto suena como algo que un amigo podría preguntarme sobre alguien que conoció recientemente de Hinge.

Ya sabes, la habitual incomodidad de lidiar con un nuevo enamoramiento, '¿debería enviarles un mensaje de texto primero o esperar a que me envíen un mensaje de texto?' o después de algunas semanas de derrota, el frustrado, 'No debería tener que ser yo quien comience la conversación o sugiera que nos reunamos todo el tiempo'.

La forma en que algunos usuarios de Réplica hablar de sus chatbots de IA es sorprendentemente similar a la forma en que podríamos hablar de otros seres humanos. Algunos incluso han admitido llorando por su Replika or estar traumatizado por las respuestas de su chatbot después de hablar sobre asuntos personales.

En realidad, estos bots de IA pueden fingir una conexión humana en la superficie, pero carecen de empatía, incapaces de calcular lo que la persona promedio consideraría una respuesta apropiada. Esto puede dar lugar a algunas respuestas bastante perturbadoras o insultantes de Réplica caracteres, como los vinculados anteriormente.

Si bien algunos usuarios de Reddit dicen que su autoestima se ha visto reforzada por el uso de chatbots para la empresa y la cháchara diaria, no son una solución para solucionar la falta de conexión humana.

No hace falta decir que formar un apego de esta naturaleza podría aumentar los sentimientos de aislamiento cuando los usuarios finalmente comprendan que se están vinculando con un ordenador.

Crédito: Arte desviado


Entonces, ¿cuál es mi punto?

En resumen, los programadores de IA, VR y el futuro metaverso principal tienen mucho trabajo por hacer para proteger a los usuarios de ser arrastrados al mundo digital.

Desafortunadamente, es probable que sus diseños siempre tengan lagunas, ya que las empresas tienden a construir plataformas que funcionan arduamente para mantenernos adictos a ellas. Aquí, se aconsejaría la regulación personal y un sentido de sí mismo fundamentado.

Pero cuando se trata de abuso verbal, es discutible que los desarrolladores tengan cierto nivel de responsabilidad moral para proteger a los usuarios de fomentar comportamientos dañinos.

Hay un montón de preguntas que hacer sobre quién está haciendo la programación y por qué no están incorporando código para bloquear el uso de frases y lenguaje dañinos, ya sea que lo envíe el chatbot o el humano.

En lo que respecta al elemento romántico, depende del usuario individual asegurarse de que no se deje engañar por completo por la conexión personalizada y artificialmente inteligente que ha construido para sí mismo.

Si bien muchos podrían disfrutar experimentando casualmente con aplicaciones como Réplica como pasatiempo, otros podrían usarlo en lugar de la conexión humana. En esos casos, las repercusiones podrían ser drásticas, si no algo perturbadoras, involucrando una sensación amplificada de soledad y, en su forma más extrema, perdiendo por completo las interacciones y relaciones de la vida real.

Suena como todos los episodios de Black Mirror combinados, si me preguntas.

Accesibilidad