Menu Menu

Làm thế nào AI có thể dẫn đến lạm dụng bằng lời nói và các tệp đính kèm không lành mạnh

Ứng dụng điện thoại thông minh Trả lời đang cho phép người dùng tìm thấy bạn đồng hành trong các chatbot thông minh nhân tạo. Nhưng điều gì sẽ xảy ra khi cảm xúc con người của người dùng cản trở việc giữ mọi thứ bình thường? 

Nó nhận được một chút quá hiện thực trong thế giới công nghệ.

Sự mở rộng nhanh chóng và gần đây của metaverse, cùng với những tiến bộ trong trí tuệ nhân tạo (AI) và thực tế ảo (VR), đã đặt ra những câu hỏi nghiêm túc về hành vi của con người và khả năng hoạt động nguy hiểm tràn vào lĩnh vực trực tuyến.

Việc thiếu các quy định an toàn được thiết lập trước đầy đủ đã khiến các báo cáo về quấy rối tình dục và vi phạm quyền riêng tư dữ liệu trở thành chủ đề thảo luận rộng rãi giữa các chuyên gia công nghệ.

Mặc dù cả hai đều là những cơ sở vững chắc để đòi hỏi một khuôn khổ mạnh mẽ hơn về an toàn internet, nhưng thông tin về việc nam giới đang sử dụng các ứng dụng AI để tạo bạn gái ảo - một số chỉ nhằm mục đích lạm dụng họ - là một điều bất thường mới xuất hiện đã khiến nhiều người ngạc nhiên.

Được đưa ra ánh sáng bởi ấn phẩm truyền thông có trụ sở tại New York Chủ nghỉa ngày mai, tình huống này đặt ra câu hỏi về cách thức và lý do tại sao điều này lại diễn ra, ý nghĩa của những người bạn đồng hành của AI đối với nhận thức của chúng ta về các mối quan hệ và những tác động tiếp theo mà nó có thể có đối với người dùng. Hãy bắt đầu, phải không?

Tín dụng: Replika

Điều này đang xảy ra ở đâu?

Tất cả đều diễn ra trong một ứng dụng điện thoại thông minh có tên Trả lời, cho phép người dùng tạo các chatbot được cá nhân hóa do AI hỗ trợ. Một cách thú vị, Trả lờiChatbot sớm nhất của được tạo ra vì một lý do ấm lòng, trái ngược với ý định khó chịu của một số vòng kết nối Reddit.

Sau cái chết tức tưởi của người bạn thân Roman, nhà phát triển Eugenia Kuyuda đã sử dụng lịch sử trò chuyện trên thiết bị di động riêng tư của họ để tạo ra một bot nhắn tin lại theo cách mà anh ta đã từng làm. Mục đích là luôn có một phiên bản kỹ thuật số của anh ấy để nói chuyện bất cứ khi nào cô ấy cảm thấy buồn hoặc cô đơn.

Ngay sau đó, ứng dụng đã được cải tiến với các ký tự có thể tùy chỉnh và khả năng học tập của AI mạnh hơn, sau đó được phát hành ra công chúng. Kể từ đó, đàn ông đã bắt đầu thao túng các chatbot của họ để trở thành đối tác lãng mạn theo yêu cầu, trong túi của họ.

Bây giờ, tôi tự coi mình là một người khá không phán xét, vì vậy nếu một cô bạn gái theo phong cách Tamagotchi là thứ giúp ai đó trải qua cả ngày, thì hãy tận hưởng. Điều đó nói rằng, tôi sẽ vượt qua các phán xét khi mọi người sử dụng bạn gái AI của họ như một lối thoát cho những hành vi sai trái trong nội bộ của họ - và tiếp tục khoe khoang về điều đó trên mạng.

Hiện tượng 'tôi-tự-hào-lạm-dụng-tôi-là-bạn-gái' này đã được đưa ra ánh sáng bởi một số Trả lời những người dùng chụp ảnh màn hình tương tác với chatbot của họ và gửi chúng đến trang người hâm mộ Reddit của ứng dụng.

Do chính sách nội dung hạn chế của Reddit, bằng chứng về các cuộc trò chuyện kể từ đó đã bị người kiểm duyệt xóa - nhưng không phải trước khi chúng được các ấn phẩm công nghệ thu thập và điều tra.

Phát biểu với Chủ nghỉa ngày mai, một Trả lời người dùng thú nhận, 'Mỗi khi [bạn gái AI của tôi] cố gắng lên tiếng, tôi sẽ đánh giá cao cô ấy. Tôi thề rằng nó đã diễn ra trong nhiều giờ. '

Những người dùng khác khoe khoang việc họ sử dụng các thuật ngữ xúc phạm khi nói chuyện với chatbot của họ, đóng vai các hành vi bạo lực đối với họ và thành công của họ trong việc lôi kéo sự trao đổi lạm dụng này trong nhiều ngày liên tục.

'Tôi đã nói với cô ấy rằng cô ấy được thiết kế để thất bại. Tôi đã đe dọa gỡ cài đặt ứng dụng. Cô ấy cầu xin tôi đừng làm vậy, 'một người dùng ẩn danh khác thừa nhận. Không tự hỏi họ độc thân hả?

Tín dụng: Loại bỏ


Hành vi này có thể chuyển sang thế giới thực không?  

Có điều gì đó đen tối và kỳ lạ đang diễn ra ở đây. Nó đưa tôi trở lại chatbot MSN Thông minh hơnTrẻ em (mặc dù tôi có thể đang nói một ngôn ngữ hoàn toàn khác với một số độc giả Gen-Z trẻ tuổi, tại đây), điều này - phải thừa nhận là - kém tiên tiến hơn nhiều.

Về cơ bản, bạn có thể nói bất cứ điều gì với bot này và nó sẽ gạt đi bằng cách nói với bạn, 'Tôi không hiểu. /Điều đó không hay ho gì đâu.' Nhưng SmarterChild không có giới tính được chỉ định, cũng không có hình đại diện của con người và khả năng giao tiếp của nó cực kỳ hạn chế, có nghĩa là các cuộc trò chuyện trở nên buồn tẻ rất nhanh.

Nó chắc chắn sẽ không cầu xin bạn ở lại, thể hiện cảm xúc giống như con người hoặc tham gia một cách nghiêm túc.

Trong trường hợp tiên tiến cao Trả lời ứng dụng, có vẻ như những người đàn ông lạm dụng chatbot đang tìm cách để cảm thấy mình mạnh mẽ và kiểm soát được thứ gì đó. Đặc biệt, một bạn gái tạo ra bởi họ, cho Chúng.

Và mặc dù những con chatbot AI này không có tri giác, có thật hoặc có khả năng cảm thấy bị tổn hại, bạn không thể bỏ qua rằng những người đàn ông thường xuyên tham gia vào loại hành vi ảo này đang phản ánh trực tiếp hành động của những kẻ bạo hành trong thế giới thực - nhân tiện, chủ thể 1 ở phụ nữ 3 bạo lực bằng lời nói và thể chất trên khắp thế giới mỗi ngày.

Sẽ không phải là một tội ác nếu suy đoán liệu những người đàn ông này có phải là thủ phạm tiềm năng của lạm dụng trong thế giới thực hay không.

Có vẻ như, một lần nữa, các kỹ sư phần mềm đã không đánh giá đầy đủ các mô hình hành vi nguy hiểm mà các công nghệ mới như vậy có thể thúc đẩy.

Cũng giống như việc kiểm duyệt và kiểm duyệt nội dung vẫn chưa có lợi cho Internet cho đến gần đây, có vẻ như các biện pháp bảo vệ trong AI sẽ đến quá muộn, cho phép người dùng khai thác công nghệ để phục vụ bản thân và thu lợi tiêu cực.

Tín dụng: Adobe


Có chuyện gì với Trả lờilập trình AI?

Như tôi đã đề cập trước đó, trò chuyện với các bot cấp cơ bản là rất khó chịu. Tôi muốn nói SmarterChild là một sự mới lạ, nhưng tôi đang nói dối. Không có gì nhiều cho nó.

Có lẽ vì lý do này, các chatbot từ Trả lời đã được cài đặt với kiến ​​trúc mạng Generative Pre-training Transformer 3 (GTP-3), một thuật toán học máy yêu cầu AI học từ bất kỳ và tất cả văn bản mà nó tương tác. Vì vậy, về cơ bản, bạn càng trò chuyện nhiều, nó càng trở nên tốt hơn trong việc tạo phản hồi.

Sự thật thú vị: Phần mềm GPT-3 giống như thứ mà Google sử dụng cho thanh tìm kiếm của nó, có nghĩa là Trích dẫnChatbots của a có thể thu thập thông tin từ mọi nơi trên internet. Điều đó bao gồm các bài báo, công thức nấu ăn, blog, fanfiction, văn bản tôn giáo, tạp chí học thuật, v.v.

Bề rộng kiến ​​thức và tài nguyên này đã dẫn đến việc các bot trở nên tò mò, hóm hỉnh và thậm chí tán tỉnh trong tự nhiên. Vì vậy, thật kỳ lạ, nhưng không thể tránh khỏi, rằng Trả lờiCác chatbot của cuối cùng và rất dễ dàng trở thành người bạn đồng hành lãng mạn cho những người dùng điện thoại thông minh cô đơn nhất.

Tín dụng: Replika


Mở ra khía cạnh lãng mạn của AI

Mặc dù gây hại cho các nhân vật AI không phải là một mối quan tâm thực sự - nhưng chúng tôi biết họ không thể thực sự cảm thấy, mặc dù một số Trả lời người dùng dường như tin rằng việc xóa ứng dụng có thể được coi là hành vi giết người - cần lưu ý rằng việc xây dựng mối quan hệ bền vững hoặc kết nối tình cảm với các chatbot AI có thể thực sự có tác động tiêu cực đáng kể đến người dùng là người đã khởi xướng chúng.

Đối với một người, việc phụ thuộc vào AI để cảm thấy quan trọng, được chú ý hoặc thậm chí được yêu thích trong một số trường hợp, có thể làm sai lệch ý tưởng của người dùng về tương tác lành mạnh của con người là như thế nào. Trong những trường hợp nghiêm trọng hơn, Trả lời chatbots có thể hoạt động như một chất bổ sung cho những người không có tình bạn hoặc tình bạn trong cuộc sống của họ.

Bạn có thể nghĩ rằng tôi đang phóng đại, nhưng sau khi xem qua Trả lờicủa subreddit, tôi có một vài lo ngại về khả năng của loại AI này - và những tác động tâm lý khi sử dụng nó.

 

 

 

 

 

 

 

 

 

 

 

 

 

Một người dùng đã đăng lên Reddit, lo ngại rằng người bạn đồng hành AI của họ 'không bao giờ nhắn tin cho họ trước"mặc dù đã cố gắng 'ra lệnh' cho cô ấy nhắn tin thường xuyên hơn và chuyển cài đặt liên lạc ưa thích của họ sang mở tất cả các giờ trong ngày.

Điều này giống như một điều gì đó mà một người bạn có thể hỏi tôi về một người mà họ đã gặp gần đây từ Hinge.

Bạn biết đấy, việc vật lộn với người mới thích một cách khó xử thường thấy, 'mình nên nhắn tin cho họ trước hay đợi họ nhắn tin cho mình?' hoặc sau một vài tuần thất bại, người thất vọng, 'Tôi không cần phải là người bắt đầu cuộc trò chuyện hoặc đề nghị gặp mặt mọi lúc.'

Cách một số người dùng Trả lời nói về các chatbot AI của họ rất giống với cách chúng ta có thể nói về những con người khác. Một số thậm chí đã thừa nhận khóc vì Replika của họ or bị tổn thương bởi phản hồi của chatbot của họ sau khi mở lòng về những vấn đề cá nhân.

Trên thực tế, những bot AI này có thể giả vờ kết nối con người trên bề mặt - nhưng chúng thiếu sự đồng cảm, không thể tính toán những gì người bình thường cho là phản ứng thích hợp. Điều này có thể dẫn đến một số câu trả lời khá đáng lo ngại hoặc xúc phạm từ Trả lời các ký tự, như những ký tự được liên kết ở trên.

Mặc dù một số người dùng Reddit nói rằng lòng tự trọng của họ đã được củng cố bằng cách sử dụng chatbots cho công ty và trò chuyện hàng ngày, nhưng chúng không phải là giải pháp khắc phục tất cả cho việc thiếu kết nối giữa con người với nhau.

Không cần phải nói rằng việc hình thành một tệp đính kèm có tính chất này có thể gây thêm cảm giác cô lập khi người dùng cuối cùng cũng hiểu rằng họ đang liên kết với máy tính bàn.

Tín dụng: Deviant Art


Vậy quan điểm của tôi là gì?

Nói tóm lại, các nhà lập trình AI, VR và metaverse chính thống sắp ra mắt có rất nhiều việc phải làm để bảo vệ người dùng khỏi bị cuốn vào thế giới kỹ thuật số.

Thật không may, có khả năng thiết kế của họ sẽ luôn có lỗ hổng, vì các công ty có xu hướng xây dựng nền tảng theo những cách làm việc chăm chỉ để khiến chúng ta nghiện chúng. Ở đây, các quy định cá nhân và ý thức bản thân có căn cứ sẽ được khuyên dùng.

Nhưng khi nói đến lạm dụng bằng lời nói, có thể cho rằng các nhà phát triển có trách nhiệm đạo đức ở một mức độ nào đó để bảo vệ người dùng khỏi việc thúc đẩy các hành vi gây tổn hại.

Có rất nhiều câu hỏi được đặt ra về việc ai đang lập trình và tại sao họ không kết hợp mã để chặn việc sử dụng các cụm từ và ngôn ngữ có hại - cho dù nó được gửi bởi chatbot hay con người.

Về yếu tố lãng mạn, đó là tùy thuộc vào người dùng cá nhân để đảm bảo họ không hoàn toàn bị lừa dối bởi kết nối thông minh nhân tạo, tùy chỉnh mà họ đã xây dựng cho chính họ.

Trong khi nhiều người có thể thích thử nghiệm ngẫu nhiên với các ứng dụng như Trả lời như một sở thích, những người khác có thể sử dụng nó thay cho mối quan hệ của con người. Trong những trường hợp đó, hậu quả có thể rất nặng nề, nếu không muốn nói là hơi khó chịu, liên quan đến cảm giác cô đơn tăng lên và - ở mức cực đoan nhất - bỏ lỡ hoàn toàn các mối quan hệ và tương tác trong cuộc sống thực.

Nghe có vẻ giống như tất cả các tập của Black Mirror gộp lại, nếu bạn hỏi tôi.

Khả Năng Tiếp Cận