Mới đây, các nhà chức trách Hàn Quốc cho biết họ có kế hoạch yêu cầu Telegram và các nền tảng truyền thông xã hội khác tích cực hỗ trợ hơn trong việc xóa và chặn nội dung deepfake có nội dung khiêu dâm.
Bước đi này được đưa ra trong bối cảnh công chúng và giới chính trị phẫn nộ sau khi một số cơ quan truyền thông trong nước đưa tin rằng những hình ảnh và video deepfake có nội dung khiêu dâm của phụ nữ Hàn Quốc thường được tìm thấy trong các phòng trò chuyện Telegram.
Ủy ban Tiêu chuẩn Truyền thông Hàn Quốc cho biết sẽ sớm thiết lập một đường dây nóng 24 giờ dành cho nạn nhân và số lượng nhân viên quản lý giám sát tội phạm tình dục kỹ thuật số sẽ tăng gấp đôi lên 140 người.
Cơ quan Cảnh sát Quốc gia Hàn Quốc cũng cho biết họ sẽ thực hiện chiến dịch kéo dài bảy tháng để trấn áp tội phạm tình dục trực tuyến.
Chủ tịch Ủy ban Tiêu chuẩn Truyền thông Hàn Quốc, ông Ryu Hee-lim cho biết, đơn vị này có kế hoạch thành lập một cơ quan tư vấn để tăng cường trao đổi với các công ty truyền thông xã hội về việc xóa và chặn nội dung deepfake tình dục.
Đối với các công ty không có văn phòng tại Hàn Quốc, họ muốn thiết lập kênh trò chuyện trực tuyến để tư vấn thường xuyên.
Ông Ryu cho biết: "Việc sản xuất, sở hữu và phân phối video tội phạm tình dục deepfake là một tội nghiêm trọng, hủy hoại phẩm giá và quyền cá nhân".
Ngoài Telegram, ủy ban cho biết họ sẽ tìm kiếm sự hợp tác từ X cũng như Meta.
Sự chỉ trích nhằm vào nền tảng Telegram ở Hàn Quốc diễn ra trùng với vụ bắt giữ Pavel Durov, nhà sáng lập Telegram, vào cuối tuần qua. Vụ bắt giữ này là một phần của cuộc điều tra tại Pháp về khiêu dâm trẻ em, buôn bán ma túy và gian lận trên ứng dụng nhắn tin được mã hóa này.
Theo dữ liệu của cảnh sát, số vụ tội phạm tình dục deepfake ở Hàn Quốc đã tăng vọt từ 156 vụ vào năm 2021 lên tới 297 vụ trong năm nay, trong đó hầu hết thủ phạm là thanh thiếu niên.
Các nạn nhân thường là nữ, bao gồm học sinh, sinh viên và thậm chí cả nữ binh sĩ trong quân đội Hàn Quốc.
Người dân Hàn Quốc đã gửi hơn 6.400 yêu cầu giúp đỡ tới Ủy ban Tiêu chuẩn Truyền thông Hàn Quốc để xóa nội dung deepfake khiêu dâm trong năm nay. Được biết năm ngoái, có tới 7.200 trường hợp đã được ủy ban trợ giúp để xóa những nội dung phản cảm này.
Theo Reuters