Theo The Verge, trong một tweet mới đây, nhóm phát triển DeepNude cho biết, họ không mấy quan tâm đến dự án này, cũng như khẳng định việc DeepNude bị những kẻ xấu lạm dụng là rất cao.
Điều này đồng nghĩa với việc ứng dụng tạo ảnh khỏa thân giả DeepNude sẽ không còn được chào bán cũng như sẽ không ra mắt các phiên bản mới nữa.
Nhóm này cũng đưa ra cảnh báo người dùng không nên chia sẻ trực tuyến phần mềm này vì sẽ vi phạm điều khoản dịch vụ của ứng dụng. Mặc dù họ thừa nhận, chắc chắn đã có 1 số bản sao được tung ra.
Ứng dụng tạo ảnh khỏa thân giả DeepNude sẽ không còn được chào bán. Ảnh: The Verge
|
Trước đó, DeepNude đã thu hút sự chú ý trên nhiều diễn đàn mạng vào hôm qua khi nó được phát hiện bởi Motherboard. Ứng dụng này có thể hoạt động được trên Windows và Linux, sử dụng AI để biến một bức ảnh phụ nữ thông thường thành ảnh khỏa thân giả mạo.
Với phiên bản miễn phí, trên bức ảnh giả được tạo ra sẽ "đóng dấu" ảnh giả, trong khi phiên bản trả phí thì cảnh báo ảnh giả nhỏ hơn nằm ở 1 góc có thể dễ dàng xóa hoặc cắt đi. Việc xử lý các bức ảnh bằng kỹ thuật số đã có từ lâu, nhưng điều đáng chú ý là DeepNude có thể tạo ra những bức ảnh nude giả mạo chỉ trong vài giây và bất kỳ ai cũng có thể làm được. Những kẻ xấu có thể lạm dụng nó để quấy rối phụ nữ.
Sự đáng sợ của thế giới ngầm Deepfake
Theo nhóm phát triển DeepNude, ứng dụng đã được bán ra trong vài tháng và không rõ đã có bao nhiêu người mua trước khi nó bị ngừng.
Hôm qua, người được cho là tác giả của DeepNude, Alberto, nói với The Verge rằng, ứng dụng kiểu này sớm hay muộn cũng sẽ được tạo ra dù nhóm của anh này có phát triển DeepNude hay không.
Trước khi DeepNude xuất hiện, những cảnh báo về công nghệ Deepfake (video giả mạo dùng AI) không còn quá mới với khả năng gán khuôn mặt của người này sang cho một người khác trong video với độ chính xác cao.
Các ứng dụng Deepfake được xây dựng dựa trên nền tảng máy học. Nó quét video và ảnh chân dung của một người, hợp nhất nó với video riêng biệt nhờ công nghệ AI và thay thế chi tiết trên gương mặt như mắt, miệng... Tất nhiên, sản phẩm tạo ra là giả mạo, nhưng không ngạc nhiên khi nhiều người có thể tin nó là thật nếu chỉ xem lướt qua.
Nàng Mona Lisa có thể "sống dậy" nhờ Deepfake. Ảnh: Metro
|
Theo HuffPost, đáng ngại hơn, hiện không cần những chuyên gia có kiến thức về AI hay máy học, mà người bình thường với vài kỹ năng về chỉnh sửa video, thông qua các ứng dụng trực tuyến miễn phí về Deepfake cũng có thể tạo ra những tác phẩm giả một cách khá đơn giản.
Vụ video giả mạo liên quan đến bà Nancy Pelosi, mà Facebook và YouTube cho biết sẽ xóa những video này, nhưng nhiều ngày sau đó vẫn còn hàng loạt các bản sao được lưu hành. CEO Mark Zuckerberg ngày 26/6 thừa nhận công ty truyền thông xã hội của ông đã mất quá nhiều thời gian để gắn cờ báo một video bị làm giả về chủ tịch Hạ viện Mỹ, bà Nancy Pelosi.
"Thực sự rất đáng sợ. Nó giống như một cuộc chạy đua vũ trang vậy", ông Edward Delp, Giám đốc Phòng thí nghiệm xử lý hình ảnh và video tại Đại học Purdue, nhấn mạnh về sự phát triển của công nghệ Deepfake.
Trước khi trông chờ sự bảo vệ đến từ các cơ quan lập pháp, cùng giải pháp ngăn chặn Deepfake của các công ty công nghệ hay nền tảng mạng xã hội, người dùng Internet phải tìm cách tự bảo vệ bản thân và cầu mong mình không trở thành nạn nhân của công nghệ do kẻ xấu nào đó cố tình lạm dụng.
Theo Vietnamnet
https://vietnamnet.vn/vn/cong-nghe/ung-dung/ung-dung-tao-anh-khoa-than-gia-trong-vai-giay-deepnude-da-ngung-hoat-dong-545721.html