Facebook dùng AI để phát hiện và xóa ảnh khỏa thân trên mạng

Không chỉ dùng AI để tìm và xóa ảnh khỏa thân, Facebok còn sử dụng công nghệ này nhằm ngăn chặn các nội dung xâm hại tới trẻ nhỏ.
Bức ảnh "Em bé Napalm" nổi tiếng từng bị hệ thống AI của Facebook nhận diện nhầm sang nội dung nhạy cảm.
Bức ảnh "Em bé Napalm" nổi tiếng từng bị hệ thống AI của Facebook nhận diện nhầm sang nội dung nhạy cảm.

Công nghệ này đã được Facebook khai thác và hoàn thiện suốt nhiều năm qua. Theo đại diện mạng xã hội này, từ tháng 7 đến tháng 9 của năm nay, Facebook đã xóa 8,7 triệu bài post liên quan tới các nội dung khiêu dâm và lạm dục tình dục trẻ em. Các chủ tài khoản phát tán nội dung này cũng bị loại bỏ khỏi hệ thống của Facebook.

Hiện quy định của Facebook yêu cầu người dùng mạng xã hội phải có độ tuổi từ 13 trở lên. Biện pháp này không ngăn chặn được hoàn toàn nhưng cũng giúp giới hạn phần nào đó các bài post liên quan tới trẻ em trên Facebook. AI sẽ giúp mạng xã hội này làm nốt việc còn lại khi chặn lọc các nội dung liên quan tới hành vi lạm dụng trẻ em.

Mặc dù hoạt động tương đối tốt, tuy nhiên không phải là hệ thống của Facebook không có sai lầm. Facebook từng gặp phải những khiếu nại liên quan tới các bức ảnh thời sự được đăng trên nền tảng này. Do nhân vật trong ảnh ở trần, những bức ảnh đã bị AI kiểm duyệt và đưa vào danh sách bài viết vi phạm.

Có thể thấy rõ điều này khi hệ thống của Mark Zuckerberg đã loại bỏ hoàn toàn bức ảnh "Em bé Napalm" nổi tiếng của Nick Út. Đây là bức ảnh từng đoạt giải Pulitzer năm 1972. Bức ảnh khắc họa sự khốc liệt của cuộc chiến Việt Nam với hình ảnh một cô bé chín tuổi, da thịt và áo quần bị đốt cháy bởi bom đạn.

Theo VietnamNet

http://vietnamnet.vn/vn/cong-nghe/tin-cong-nghe/facebook-dung-ai-de-phat-hien-va-xoa-anh-khoa-than-tren-mang-485234.html