Sau thời gian ngắn gây chú ý trên mạng xã hội, phần mềm sử dụng AI để tạo ra bức ảnh phụ nữ khỏa thân giả đã bị gỡ bỏ. Nhóm phát triển nhận thấy sản phẩm bị sử dụng "sai mục đích" và có thể bị lạm dụng để quấy rối. Tuy nhiên, bản sao của DeepNude vẫn trôi nỗi trên các diễn đàn và trang mạng xã hội.
Theo The Verge, có thể tìm thấy liên kết tải xuống phần mềm này ở nhiều nơi như các kênh Telegram, 4chan, nội dung mô tả video trên YouTube, thậm chí ngay cả kho lưu trữ mã nguồn thuộc sở hữu của Microsoft.
Motherboard cho biết DeepNude được người bán ẩn danh cung cấp với giá 20 USD trên máy chủ Discord. Người này cho biết đã cải thiện mức độ ổ định của phần mềm và loại bỏ tính năng che mờ những chỗ nhạy cảm trên ảnh giả.
"Chúng tôi vui mừng thông báo hiện tại đã có phiên bản DeepNude V2 sạch sẽ và hoàn chỉnh, được mở khóa và tăng cường mức độ ổn định", người bán giới thiệu trên Discord. Hiện tại bài rao bán đã bị xóa.
Một số người đã tải mã nguồn DeepNude lên GitHub để bày tỏ sự khó chịu trước phản ứng của cộng đồng với phần mềm này. Họ còn đính kèm ảnh chụp màn hình bài viết trên Vox cảnh báo mối nguy hại của DeepNude với hàm ý chế giễu.
Kiểm tra thử một số liên kết, The Verge xác nhận thật sự có phiên bản DeepNude được chia sẻ công khai, bao gồm cả phần mềm đã loại bỏ tính năng làm mờ những điểm nhạy cảm. Tuy nhiên, có khả năng một trong số chúng bị chèn mã độc. Vì vậy người dùng cần cẩn trọng và không nên tải về.
DeepNude sử dụng công nghệ deepfake để tạo ra hình ảnh khỏa thân giả. Phần mềm này có phiên bản dành cho hệ điều hành Windows và Linux, giá bán cao nhất lên đến 99 USD.
Chỉ một thời gian ngắn sau khi xuất hiện, nhóm phát triển đã nhanh chóng gỡ bỏ phần mềm này vì nhận thấy nguy cơ hình ảnh giả có thể được sử dụng với mục đích trả thù, quấy rối và đe dọa phụ nữ.
Theo Zing