Menu Menu

Tại sao ứng dụng deepfake Facemega là một con dốc trơn trượt

Tiếp cận công nghệ deepfake ngày càng dễ dàng hơn. Với phần lớn mọi người chọn sử dụng nó vì những lý do độc ác, thật khó để bỏ qua rằng hậu quả tiêu cực của công nghệ mới có thể lớn hơn lợi ích của nó.

Hậu quả tiêu cực và nguy hiểm của deepfakes đã được thảo luận sôi nổi kể từ khi công nghệ AI trở thành xu hướng chủ đạo vào năm 2017.

Chuyên gia có cảnh báo rằng việc sử dụng rộng rãi chúng, kết hợp với hệ thống học tập AI không ngừng được cải tiến, sẽ 'tàn phá xã hội' và rằng chúng ta 'không chuẩn bị' để đối phó với hậu quả.

Bên cạnh những clip thật quái đản được đăng tải lên @deepTomCruise tài khoản TikTok, hầu hết các deepfakes không mất nhiều thời gian để thể hiện các trục trặc tinh vi cho phép chúng tôi phát hiện chúng là nội dung bịa đặt.

Tạo một video hoàn hảo về ai đó nói điều gì đó mà họ không thực sự nói hoặc thực hiện các hành động mà họ không thực hiện đòi hỏi kỹ năng biên tập phi thường. Nó cũng đòi hỏi nhiều điểm tham chiếu đa phương tiện để AI học cách cư xử và thói quen nói năng của từng cá nhân đủ tốt để thuyết phục.

Nhưng tất nhiên, việc công nghệ như vậy tiến bộ chỉ là vấn đề thời gian – và trước khi nó được điều chỉnh để hoạt động trong tay của con người hàng ngày.

Trong những ngày gần đây, người dùng các ứng dụng chỉnh sửa ảnh và Facebook cho biết đã nhìn thấy quảng cáo của một ứng dụng có tên Facemega. Phần mềm điện thoại thông minh miễn phí cho phép người dùng tải lên và ghép một bức chân dung ảo của bất kỳ ai đối mặt với bất kì video của sự lựa chọn của họ.

Nhìn vào video diễn sâu giả'd Emma Watson ở trên, bạn có thể thấy công nghệ thực tế đến mức nào.

Nghiêm túc mà nói, gần đây tôi đã đến xem buổi hòa nhạc ba chiều ABBA được giới phê bình đánh giá cao ở London và các chuyển động sống động như thật trong clip đó có chất lượng tương tự nhau một cách đáng kinh ngạc.

Nhưng thật khó để bỏ qua tính chất khêu gợi của video, nó minh họa hoàn hảo ý định đen tối của người dùng – và có lẽ là của chính các lập trình viên. Vấn đề trở nên nghiêm trọng hơn khi clip này được sử dụng làm quảng cáo.

Tweet lại bản ghi màn hình của quảng cáo, một người dùng Twitter cho biết: 'Đây chỉ là một cách mới để quấy rối tình dục phụ nữ. Nó lấy đi quyền tự chủ về cơ thể của bạn và buộc bạn phải quan hệ tình dục không đồng thuận, những thứ sau đó có thể được sử dụng để hạ nhục và phân biệt đối xử với bạn. Chưa kể những ảnh hưởng tâm lý.'

Việc khuyến khích sử dụng deepfake AI cho mục đích này rõ ràng là rất nguy hiểm. Tuy nhiên, không có gì đáng ngạc nhiên, vì những ứng dụng nổi tiếng nhất của công nghệ deep fake cho đến nay đều mang tính chất khiêu dâm hoặc gắn liền với chính trị.

 

Vào năm 2019 – chỉ hai năm sau khi công nghệ này được tạo ra – đã có báo cáo rằng ít nhất 96% tất cả các video deepfake được tìm thấy trực tuyến là khiêu dâm, theo nghiên cứu do Deeptrace thực hiện.

Thúc đẩy việc tạo ra những video này là rất nhiều trang web lưu trữ độc quyền nội dung khiêu dâm deepfake. Nhiều clip giả mạo được tải lên các nền tảng này đã được tạo bởi những người yêu cũ muốn trả thù hoặc những người muốn làm hoen ố hình ảnh của kẻ thù của họ.

Do đó, các chính phủ trên khắp thế giới đã bắt đầu xây dựng các khung pháp lý mạnh mẽ hơn để hạn chế cách sử dụng công nghệ deepfake. Phải thừa nhận rằng những điều này phải được thông báo bởi các trường hợp hiện có, đó là lý do tại sao các chuyên gia công nghệ cảnh báo chúng tôi chưa chuẩn bị cho những nguy hiểm của nó.

Trở lại vào tháng 2022 năm XNUMX, chính phủ Vương quốc Anh đã tạo ra nội dung khiêu dâm deepfake một tội hình sự có thể bỏ tù. Tuy nhiên, tòa án chỉ có thể truy tố các cá nhân trong trường hợp họ lưu hành những hình ảnh hoặc video này trực tuyến.

Một số bang của Mỹ cũng đã đưa luật tương tự tại chỗ. Tuy nhiên, trên thực tế, các chính sách này không thể bảo vệ bất kỳ ai khỏi bị chèn vào các video đồ họa để người khác xem sau cánh cửa đóng kín.

Suy nghĩ này, đối với đại đa số phụ nữ, sẽ đủ để kích động sự ghê tởm và tức giận, nếu không phải là phản ứng rùng mình và sởn da gà.

@kennaacting

Thử thách hoán đổi khuôn mặt với #facemega #facemegaapp #hoán đổi khuôn mặt #facemagic #chỉnh sửa video #buồn cười # liên hệ

♬ Happy Upbeat Fun Rock Tràn đầy năng lượng – StockSounds

Như đã đề cập, deepfakes cũng đã được sử dụng để kích động chính trị náo động.

Barak Obama đã miêu tả xúc phạm Donald Trump. Mark Zuckerberg có đã sẵn sàng để nói rằng mục đích duy nhất của Facebook là kiểm soát và khai thác người dùng của nền tảng này.

Tất cả những điều này đã lan truyền nhanh chóng, cho thấy mức độ quan tâm, sự sợ hãi và trong một số trường hợp, mánh khóe của công nghệ deepfake.

Được sử dụng trong các bối cảnh khác, hậu quả có thể nguy hiểm hơn nhiều. Trong những tháng đầu tiên khi Nga xâm lược Ukraine, Video của Tổng thống Zelensky nổi lên trong đó anh ta bảo binh lính Ukraine đầu hàng binh lính Nga.

May mắn thay thực Tổng thống Zelensky đã sử dụng các tài khoản mạng xã hội cá nhân của mình để xác nhận rằng video đã được các lực lượng đối lập chỉnh sửa. Ông nhắc nhở người dân của mình rằng cuộc chiến vì đất nước vẫn chưa kết thúc và kêu gọi họ đoàn kết.

Có vẻ như deepfakes, ngay cả khi được sử dụng để tạo ra một phiên bản truyền thống của Nữ hoàng Elizabeth II đáng cười bài phát biểu giáng sinh, có xu hướng nảy sinh một cảm giác bất an trong chúng ta.

Có lẽ chúng ta Biết sâu xa hơn rằng công nghệ này có nhiều khả năng được sử dụng với mục đích xấu. Vì vậy, điều gì sẽ xảy ra khi nó trở nên tiên tiến đến mức chúng ta không thể phân biệt được đâu là sự thật và đâu là hư cấu?

Với các ứng dụng tải xuống miễn phí như Facemega, chúng ta có nên lo lắng rằng công nghệ deepfake đang trở nên phổ biến rộng rãi trên điện thoại thông minh của chúng ta không?

Tôi muốn nói rằng, thật không may, chúng ta nên như vậy.

Khả Năng Tiếp Cận