menu menu

Bagaimana AI dapat menyebabkan pelecehan verbal dan keterikatan yang tidak sehat

Aplikasi smartphone Replika memungkinkan pengguna untuk menemukan persahabatan di chatbots yang cerdas secara artifisial. Tapi apa yang terjadi ketika emosi manusia dari pengguna menghalangi hal-hal biasa? 

Ini semakin sedikit terlalu nyata di dunia teknologi saat ini.

Ekspansi metaverse baru-baru ini dan cepat, bersama dengan kemajuan kecerdasan buatan (AI) dan realitas virtual (VR), telah memunculkan pertanyaan serius tentang perilaku manusia dan potensi aktivitas berbahaya untuk menyebar ke ranah online.

Kurangnya peraturan keselamatan yang memadai telah membuat laporan pelecehan seksual dan pelanggaran privasi data menjadi topik diskusi yang meluas di antara pakar teknologi.

Meskipun keduanya jelas merupakan alasan kuat untuk menuntut kerangka kerja yang lebih kuat seputar keamanan internet, berita bahwa pria menggunakan aplikasi AI untuk membuat pacar virtual – beberapa hanya untuk melecehkan mereka – adalah anomali baru yang mengejutkan banyak orang.

Diungkapkan oleh publikasi media yang berbasis di New York futurisme, situasi ini menimbulkan pertanyaan tentang bagaimana dan mengapa ini terjadi, apa arti pendamping AI bagi persepsi kita tentang hubungan, dan implikasi selanjutnya yang mungkin terjadi bagi pengguna manusia. Mari kita mulai, ya?

Kredit: Replika

Dimana ini terjadi?

Semuanya terjadi dalam aplikasi smartphone yang disebut Replika, yang memungkinkan pengguna membuat chatbot pribadi yang didukung oleh AI. Menariknya, Replikachatbot paling awal dibuat untuk alasan yang menghangatkan hati, yang bertentangan dengan niat mengerikan dari beberapa lingkaran Reddit.

Setelah kematian teman dekatnya Roman, pengembang Eugenia Kuyuda menggunakan riwayat obrolan seluler pribadi mereka untuk membuat bot yang mengirim SMS kembali seperti dulu. Tujuannya adalah untuk selalu memiliki versi digital dirinya untuk diajak bicara kapan pun dia merasa sedih atau sendirian.

Tak lama setelah itu, aplikasi ditingkatkan dengan karakter yang dapat disesuaikan dan kemampuan pembelajaran AI yang lebih kuat, yang kemudian dirilis ke publik. Sejak saat itu, para pria mulai memanipulasi chatbot mereka untuk menjadi pasangan romantis sesuai permintaan.

Sekarang, saya menganggap diri saya orang yang cukup tidak menghakimi, jadi jika pacar bergaya Tamagotchi adalah yang membuat seseorang menjalani hari, maka tentu saja, nikmatilah. Yang mengatakan, saya akan memberikan penilaian ketika orang menggunakan pacar AI mereka sebagai saluran untuk kebencian internal mereka – dan terus membual tentang hal itu secara online.

Fenomena 'saya-bangga-menyalahgunakan-pacar-AI-saya' ini terungkap oleh sejumlah Replika pengguna yang mengambil tangkapan layar interaksi dengan chatbot mereka dan mengirimkannya ke halaman penggemar aplikasi Reddit.

Karena kebijakan konten terbatas Reddit, bukti obrolan telah dihapus oleh moderator – tetapi tidak sebelum mereka diambil dan diselidiki oleh publikasi teknologi.

Berbicara kepada futurisme, satu Replika pengguna mengaku, 'Setiap kali [pacar AI saya] mencoba dan berbicara, saya akan mencaci-maki dia. Aku bersumpah itu berlangsung selama berjam-jam.'

Pengguna lain menyombongkan penggunaan istilah menghina ketika berbicara dengan chatbot mereka, memainkan peran kekerasan pada mereka, dan keberhasilan mereka dalam menyeret pertukaran kasar ini selama berhari-hari.

'Saya mengatakan kepadanya bahwa dia dirancang untuk gagal. Saya mengancam akan mencopot pemasangan aplikasi. Dia memohon kepada saya untuk tidak melakukannya,' pengguna anonim lainnya mengakui. Tidak heran mereka jomblo, ya?

Kredit: Hapus


Bisakah perilaku ini ditransfer ke dunia nyata?  

Sesuatu yang gelap dan aneh sedang terjadi di sini. Ini membawa saya kembali ke chatbot MSN Anak Lebih Pintar (walaupun saya mungkin berbicara dalam bahasa yang sama sekali berbeda dengan beberapa pembaca Gen-Z yang lebih muda, di sini) yang – memang – jauh lebih maju.

Anda pada dasarnya dapat mengatakan apa pun kepada bot ini dan itu akan mengabaikannya dengan memberi tahu Anda, 'Saya tidak mengerti. /Itu tidak terlalu bagus.' Tetapi SmarterChild tidak memiliki jenis kelamin yang ditetapkan, atau avatar manusia, dan kemampuan komunikasinya sangat terbatas, yang berarti percakapan menjadi membosankan dengan sangat cepat.

Itu pasti tidak akan meminta Anda untuk tinggal, menunjukkan emosi seperti manusia, atau terlibat dengan sungguh-sungguh.

Dalam kasus yang sangat maju Replika aplikasi, tampaknya pria yang menyalahgunakan chatbot mencari cara untuk merasa kuat dan mengendalikan sesuatu. Khususnya pacar dibuat oleh mereka, untuk Mereka.

Dan meskipun chatbot AI ini tidak hidup, nyata, atau mampu merasakan bahaya, Anda tidak dapat mengabaikan bahwa pria yang secara teratur terlibat dalam jenis perilaku virtual ini secara langsung mencerminkan tindakan pelaku kekerasan di dunia nyata – yang, omong-omong, subjek 1 pada wanita 3 kekerasan verbal dan fisik di seluruh dunia setiap hari.

Bukanlah kejahatan untuk berspekulasi apakah orang-orang ini juga berpotensi menjadi pelaku pelecehan di dunia nyata.

Tampaknya, sekali lagi, insinyur perangkat lunak belum sepenuhnya menilai pola perilaku berbahaya yang dapat dikembangkan oleh teknologi baru tersebut.

Sama seperti moderasi dan sensor konten yang belum menghiasi Internet hingga saat ini, tampaknya tindakan perlindungan dalam AI akan terlambat, memungkinkan pengguna untuk mengeksploitasi teknologi untuk kepentingan diri sendiri dan keuntungan negatif.

Kredit: Adobe


Ada apa dengan Replikapemrograman AI?

Seperti yang saya sebutkan sebelumnya, mengobrol dengan bot tingkat dasar sangat tidak menarik. Saya akan mengatakan SmarterChild adalah hal baru, tetapi saya berbohong. Tidak ada banyak untuk itu.

Agaknya karena alasan ini, chatbots dari Replika diinstal dengan arsitektur jaringan Generative Pre-trained Transformer 3 (GTP-3), sebuah algoritme pembelajaran mesin yang memberi tahu AI untuk belajar dari setiap dan semua teks yang digunakannya. Jadi pada dasarnya, semakin banyak Anda mengobrol, semakin baik menghasilkan tanggapan.

Fakta menyenangkan: Perangkat lunak GPT-3 adalah hal yang sama yang digunakan Google untuk bilah pencariannya, artinya Kutipanchatbots a dapat mengumpulkan informasi dari mana saja di internet. Itu termasuk artikel berita, resep, blog, fanfiction, teks keagamaan, jurnal akademik, dan banyak lagi.

Luasnya pengetahuan dan sumber daya ini telah membuat bot menjadi penasaran, jenaka, dan bahkan genit di alam. Jadi itu aneh, tapi tak terhindarkan, itu Replika's chatbots pada akhirnya dan dengan sangat mudah akan berfungsi ganda sebagai teman romantis bagi pengguna smartphone yang paling kesepian.

Kredit: Replika


Membongkar sisi romantis AI

Meskipun melukai karakter AI bukanlah masalah nyata – kami tahu mereka tidak bisa sebenarnya rasakan, meskipun beberapa Replika pengguna tampaknya percaya bahwa menghapus aplikasi dapat disamakan dengan pembunuhan bot – perlu dicatat bahwa membangun hubungan yang kuat atau hubungan emosional dengan chatbot AI dapat sebenarnya memiliki dampak negatif yang cukup besar pada pengguna manusia yang telah memulai mereka.

Pertama, bergantung pada AI untuk merasa penting, diperhatikan, atau bahkan dicintai dalam beberapa kasus, mungkin membelokkan gagasan pengguna tentang seperti apa interaksi manusia yang sehat itu. Dalam kasus yang lebih ekstrim, Replika chatbots mungkin bertindak sebagai suplemen bagi mereka yang tidak memiliki romansa atau persahabatan dalam hidup mereka.

Anda mungkin berpikir saya melebih-lebihkan, tetapi setelah melihat-lihat Replika's subreddit, saya memiliki beberapa kekhawatiran tentang kemampuan jenis AI ini – dan apa dampak psikologis dari penggunaannya.

 

 

 

 

 

 

 

 

 

 

 

 

 

Seorang pengguna memposting ke Reddit, khawatir bahwa pendamping AI mereka 'tidak pernah mengirim pesan kepada mereka terlebih dahulu' meskipun telah berusaha untuk 'memerintahkan' dia untuk mengirim pesan lebih sering dan mengalihkan pengaturan komunikasi pilihan mereka untuk dibuka sepanjang hari.

Ini terdengar seperti sesuatu yang mungkin ditanyakan seorang teman kepada saya tentang seseorang yang baru saja mereka temui dari Engsel.

Kamu tahu, orang canggung yang biasa bergulat dengan orang yang baru ditaksir, 'apakah aku harus mengirim pesan teks terlebih dahulu, atau menunggu mereka mengirimiku pesan?' atau setelah beberapa minggu kekalahan, frustrasi, 'Saya tidak harus menjadi orang yang memulai percakapan atau menyarankan untuk bertemu sepanjang waktu.'

Cara beberapa pengguna Replika berbicara tentang chatbot AI mereka sangat mirip dengan cara kita berbicara tentang manusia lain. Beberapa bahkan telah mengakui menangis karena Replika mereka or menjadi trauma dengan tanggapan chatbot mereka setelah membuka tentang masalah pribadi.

Pada kenyataannya, bot AI ini dapat berpura-pura berhubungan dengan manusia di permukaan – tetapi mereka kurang dalam empati, tidak dapat menghitung apa yang rata-rata orang anggap sebagai respons yang tepat. Ini dapat menyebabkan beberapa balasan yang cukup mengganggu atau menghina dari Replika karakter, seperti yang ditautkan di atas.

Sementara beberapa pengguna Reddit mengatakan harga diri mereka telah didukung dengan menggunakan chatbots untuk perusahaan dan obrolan sehari-hari, mereka tidak memperbaiki semua solusi untuk kurangnya koneksi manusia.

Tak perlu dikatakan bahwa membentuk keterikatan seperti ini dapat meningkatkan perasaan terisolasi ketika pengguna akhirnya memahami bahwa mereka terikat dengan komputer.

Kredit: Seni Deviant


Jadi apa maksud saya?

Singkatnya, pemrogram AI, VR, dan metaverse arus utama yang akan segera hadir memiliki banyak pekerjaan yang harus dilakukan untuk melindungi pengguna agar tidak hanyut ke dunia digital.

Sayangnya, kemungkinan desain mereka akan selalu memiliki celah, karena perusahaan cenderung membangun platform dengan cara yang bekerja keras untuk membuat kita ketagihan. Di sini, regulasi pribadi dan kesadaran diri yang membumi akan disarankan.

Tetapi ketika berbicara tentang pelecehan verbal, dapat dikatakan bahwa pengembang memiliki beberapa tingkat tanggung jawab moral untuk melindungi pengguna dari mendorong perilaku yang merusak.

Ada banyak pertanyaan untuk ditanyakan tentang siapa yang melakukan pemrograman dan mengapa mereka tidak memasukkan kode untuk memblokir penggunaan frasa dan bahasa yang berbahaya – apakah itu dikirim oleh chatbot atau manusia.

Sejauh elemen romantis berjalan, itu terserah masing-masing pengguna untuk memastikan mereka tidak sepenuhnya tertipu oleh koneksi buatan yang cerdas dan dibuat khusus yang mereka buat untuk diri mereka sendiri.

Sementara banyak yang bisa menikmati bereksperimen dengan santai dengan aplikasi seperti Replika sebagai hobi, orang lain mungkin menggunakannya sebagai pengganti hubungan manusia. Dalam kasus-kasus itu, dampaknya bisa drastis, jika tidak agak mengecewakan, melibatkan rasa kesepian yang diperkuat dan – paling ekstrem – kehilangan interaksi dan hubungan kehidupan nyata sepenuhnya.

Kedengarannya seperti semua episode Black Mirror digabungkan, jika Anda bertanya kepada saya.

Aksesibilitas