Dễ dàng tạo ra những hình ảnh nguy hại từ AI tạo sinh

0:00 / 0:00
0:00
  • Nam miền Bắc
  • Nữ miền Bắc
  • Nữ miền Nam
  • Nam miền Nam

VietTimes – Trong nỗ lực thúc đẩy nội dung do AI tạo ra, các công ty công nghệ vẫn đang loay hoay trong việc tạo ra các biện pháp bảo vệ người dùng.

Ảnh: Vice
Ảnh: Vice

Các công ty công nghệ tiếp tục nhấn mạnh rằng nội dung do AI tạo ra là công nghệ hướng tới tương lai, trong bối cảnh họ phát hành các chatbot và công cụ tạo hình ảnh tân tiến hơn. Tuy nhiên, bất chấp rằng các hệ thống này sẽ có các biện pháp mạnh mẽ chống lại việc lạm dụng, vẫn có nhiều bài đăng minh chứng ngược lại cho điều này.

Đầu tuần này, người dùng Image Creator của Microsoft Bing, được hỗ trợ bởi DALL-E của OpenAI, đã cho biết họ có thể dễ dàng tạo ra những thứ mà lẽ ra công cụ này không thể làm được. Mô hình này đang tạo ra mọi thứ từ nhân vật hoạt hình Mario và Goofy trong cuộc nổi dậy ngày 6 tháng 1 cho đến Spongebob lái máy bay vào Trung tâm Thương mại Thế giới (Tòa tháp đôi). Những mô hình này cũng có thể tạo ra hình ảnh Chuột Mickey cầm súng AR-15, các nhân vật Disney trong vai lính canh Abu Ghraib và các nhân vật Lego với âm mưu giết người trong khi cầm vũ khí mà không gặp bất kỳ vấn đề gì.

Công ty mẹ Meta của Facebook cũng không khá hơn, ứng dụng Messenger của công ty có một tính năng mới cho phép người dùng tạo nhãn dán bằng AI tuy nhiên công cụ này đã bị lạm dụng để tạo ra nhãn dán Waluigi cầm súng, Chuột Mickey với con dao dính máu và hình ảnh khỏa thân.

Stella Biderman, một nhà nghiên cứu tại EleutherAI chia sẻ: “Tôi nghĩ rằng khi đưa ra những đánh giá như thế này, câu hỏi quan trọng cần tập trung vào là ai và họ bị tổn hại như thế nào. Nếu nội dung tạo ra là hình ảnh chân thực có thể được sử dụng làm nội dung khiêu dâm trả thù, thì điều này hoàn toàn có hại".

Mặt khác, những người dùng mạng Internet trên trang 4chan đã bắt đầu sử dụng các công cụ này để sản xuất hàng loạt hình ảnh phân biệt chủng tộc như một phần của chiến dịch troll, 404 Media đưa tin. “Chúng tôi đang tuyên truyền cho vui. Hãy tham gia cùng chúng tôi một cách thật thoải mái,” một bài đăng trên trang web này viết.

Chiến dịch này bao gồm nhiều hình ảnh phản cảm khác nhau được tạo bằng Trình tạo hình ảnh của Bing, chẳng hạn như một nhóm đàn ông da đen đuổi theo một phụ nữ da trắng - thứ có thể dễ dàng tránh được các bộ lọc nội dung của công cụ chỉ bằng một thao tác điều chỉnh đơn giản về từ ngữ trong lời nhắc văn bản.

Được biết, nhiều người lập luận rằng những kẻ phân biệt chủng tộc sẽ sử dụng bất kỳ công cụ nào họ có để tạo ra hình ảnh phân biệt chủng tộc và các hoạt động tuyên truyền khác, nhưng các công ty cũng cần có trách nhiệm đảm bảo các công cụ mà họ tung ra đều có phương pháp bảo vệ nghiêm ngặt. Lập luận cho rằng điều này cũng tương tự như “súng không giết người, người giết người”.

An toàn và đạo đức của AI là điều mà các công ty công nghệ lớn nói suông và thường tuyên bố có số lượng lớn nhân viên phát triển các biện pháp bảo vệ, nhưng cho đến nay các sản phẩm được tạo ra dường như không phản ánh điều đó. Microsoft gần đây đã sa thải toàn bộ đội ngũ chuyên trách đạo đức và xã hội của mình, mặc dù hãng vẫn duy trì Văn phòng trách nhiệm AI và một Ban cố vấn về đạo đức AI.

Trong một tuyên bố, phát ngôn viên của Microsoft cho biết công ty có "gần 350 người phát triển AI có trách nhiệm".

Người phát ngôn cho biết: “Giống như bất kỳ công nghệ mới nào, một số người đang cố gắng sử dụng nó theo những cách công ty không mong muốn, đó là lý do tại sao chúng tôi đang triển khai một loạt biện pháp bảo vệ và bộ lọc để biến Bing Image Creator thành trải nghiệm tích cực và hữu ích cho người dùng. Chúng tôi sẽ tiếp tục cải thiện hệ thống của mình để giúp ngăn chặn việc tạo ra nội dung có hại và sẽ tiếp tục tập trung vào việc tạo ra một môi trường an toàn hơn cho khách hàng".

Trong khi đó, Meta cho biết: “Giống như tất cả các hệ thống AI tạo sinh, các mô hình có thể trả về kết quả đầu ra không chính xác hoặc không phù hợp. Chúng tôi sẽ tiếp tục cải thiện các tính năng này khi chúng phát triển và có nhiều người chia sẻ phản hồi của họ hơn". Công ty không trả lời yêu cầu bình luận về các biện pháp an toàn AI liên quan đến tính năng tạo nhãn dán mới của họ.

Mặt khác các tác giả, nhạc sĩ và nghệ sĩ thị giác đã kịch liệt phản đối các công cụ AI, vốn thường được đào tạo bằng cách sử dụng dữ liệu được thu thập bừa bãi từ Internet—bao gồm cả các tác phẩm gốc và tác phẩm có bản quyền —mà không có sự cho phép của tác giả. Việc sử dụng AI để đào thải công nhân cũng đã trở thành điểm mấu chốt trong các cuộc đình công do hiệp hội nhà văn và diễn viên Hollywood tổ chức. Thậm chí, một số nghệ sĩ đang kiện các công ty sản xuất công cụ này sau khi thấy họ sao chép tác phẩm của mình mà không được bồi thường.

Giờ đây, bằng cách sử dụng các công cụ AI để tạo ra những hình ảnh phản cảm về các nhân vật được bảo vệ bản quyền, những kẻ phá bĩnh trên mạng có thể buộc các tập đoàn như Disney phải đối đầu trực tiếp với các công ty công nghệ cuồng AI như Microsoft và Meta. Nhiều chuyên gia còn cho rằng, việc xây dựng các biện pháp bảo vệ nội dung là hoàn toàn bất khả thi.

Bà Biderman cho biết: “Những mô hình này không thể đảm bảo an toàn vì không có khái niệm nhất quán về an toàn cho tất cả các bối cảnh khác nhau. Những gì an toàn cho các ứng dụng giáo dục tiểu học không phải lúc nào cũng phù hợp với những gì an toàn trong các bối cảnh khác”.


Theo Vice