AI được đào tạo bằng dữ liệu từ chính AI tạo ra đem đến kết quả kỳ dị

0:00 / 0:00
0:00
  • Nam miền Bắc
  • Nữ miền Bắc
  • Nữ miền Nam
  • Nam miền Nam

VietTimes – Các nhà nghiên cứu từ Đại học Stanford và Đại học Rice đã phát hiện ra rằng các mô hình trí tuệ nhân tạo (AI) tạo sinh cần “dữ liệu thực mới”, nếu không chất lượng đầu ra sẽ giảm.

Ảnh: Peta Pixel
Ảnh: Peta Pixel

Một nghiên cứu mới đây đã phát hiện ra rằng việc đào tạo trình tạo hình ảnh AI bằng chính các sản phẩm do AI tạo ra sẽ đem đến những sản phẩm kém chất lượng, có phần kỳ dị, khó hiểu.

Các nhà nghiên cứu từ Đại học Stanford và Đại học Rice đã phát hiện ra rằng các mô hình trí tuệ nhân tạo (AI) tạo sinh cần “dữ liệu thực mới” nếu không chất lượng đầu ra sẽ giảm.

Nhóm cho biết hình ảnh do AI tạo ra sẽ phóng đại những bất thường trong hình ảnh, dẫn tới dữ liệu đào tạo sai lệch và khiến mô hình xuất bản những bức ảnh ngày càng không giống con người.

Nhóm nghiên cứu đã đặt tên cho tình trạng AI này là "Rối loạn mô hình tự thực", hay viết tắt là MAD. Tự thực là quá trình tế bào tự ăn các thành phần của chính nó, trong trường hợp này AI tạo ảnh tự dung nạp những nội dung do nó tạo ra.

Các nhà nghiên cứu viết trong nghiên cứu: “Nếu không có đủ dữ liệu thực mới trong mỗi thế hệ của vòng lặp tự thực, các mô hình tạo sinh trong tương lai chắc chắn sẽ giảm dần chất lượng (độ chính xác) hoặc tính đa dạng của đầu ra”.

Nếu nghiên cứu này là chính xác, điều này đồng nghĩa với việc AI sẽ không thể phát triển một nguồn dữ liệu một cách vô tận. Thay vì dựa vào đầu ra của chính nó, AI vẫn sẽ cần những hình ảnh thực, chất lượng cao để tiếp tục phát triển. Đây được coi là tin tốt với các nhiếp ảnh gia và người làm nội dung, khi AI tạo sinh không thể xóa bỏ vai trò của họ.

Hiện nay, lượng lớn tư liệu của các nhiếp ảnh gia đang được dùng để đào tạo AI. Vấn đề MAD có thể buộc các công ty AI mua bản quyền dữ liệu, từ đó duy trì sức sống cho giới nhiếp ảnh.

Kể từ khi những công cụ như DALL-E và MidjTHER bùng nổ cách đây một năm, các công ty đứng sau các công cụ mới đáng kinh ngạc này đã nhấn mạnh rằng họ sử dụng dữ liệu “có sẵn công khai” để huấn luyện các mô hình của mình. Tuy nhiên, nguồn dữ liệu này bao gồm cả những bức ảnh bản quyền.

Ngay cả khi họ không phải đối mặt với các hậu quả pháp lý từ việc xây dựng phiên bản đầu tiên của trình tạo hình ảnh AI, thì đối với các mô hình trong tương lai, rất có thể họ sẽ cần sự hợp tác của các chuyên gia hình ảnh.

Theo Peta Pixel