AI “bịa chuyện” báo hại Tập đoàn Deloitte: Báo cáo 440.000 USD cho chính phủ Australia đổ bể

0:00 / 0:00
0:00
  • Nam miền Bắc
  • Nữ miền Bắc

Deloitte bị phát hiện dùng AI tạo sinh trong báo cáo cho chính phủ Australia, gây ra sai lệch nghiêm trọng, phải hoàn tiền và châm ngòi cuộc khủng hoảng đạo đức trí tuệ nhân tạo.

Deloitte sẽ phải hoàn trả 97.000 USD, đồng thời vướng vào cuộc tranh luận gay gắt về đạo đức nghề nghiệp và việc lạm dụng AI trong tư vấn chính sách công. Ảnh: Fortune.
Deloitte sẽ phải hoàn trả 97.000 USD, đồng thời vướng vào cuộc tranh luận gay gắt về đạo đức nghề nghiệp và việc lạm dụng AI trong tư vấn chính sách công. Ảnh: Fortune.

Deloitte thú nhận dùng trí tuệ nhân tạo (AI) tạo nội dung sai trong báo cáo trị giá 440.000 USD cho chính phủ Australia, phải hoàn tiền gần 100.000 USD và châm ngòi cho cuộc tranh cãi lớn về đạo đức AI.

Tập đoàn tư vấn toàn cầu Deloitte đang đối mặt với làn sóng chỉ trích dữ dội sau khi thừa nhận đã sử dụng AI tạo sinh (generative AI) trong một báo cáo trị giá 440.000 USD dành cho chính phủ Australia. Bản báo cáo sau đó bị phát hiện chứa tài liệu trích dẫn bịa đặt và sai lệch nghiêm trọng về mặt thực tế.

Hệ quả là Deloitte sẽ phải hoàn trả 97.000 USD, đồng thời vướng vào cuộc tranh luận gay gắt về đạo đức nghề nghiệp và việc lạm dụng AI trong tư vấn chính sách công.

Báo cáo nói trên là một bản đánh giá hệ thống tuân thủ phúc lợi xã hội của Australia, được Bộ Việc làm và Quan hệ Lao động (DEWR) đặt hàng vào tháng 12/2024. Đây là chủ đề cực kỳ nhạy cảm, diễn ra sau bê bối “Robodebt” – vụ việc gây chấn động nước này khiến tính chính xác của bản báo cáo trở nên tối quan trọng.

Vụ việc hiện được xem như một bài học đắt giá về rủi ro khi triển khai AI tạo sinh mà không có sự kiểm soát con người nghiêm ngặt, phơi bày những giới hạn của việc tích hợp mô hình ngôn ngữ lớn vào công việc chuyên môn và đặt ra câu hỏi cấp bách về trách nhiệm khi AI tham gia hoạch định chính sách công.

“Ảo giác” trong phần trích dẫn

Những sai sót của báo cáo được phát hiện lần đầu vào tháng 8 bởi Tiến sĩ Christopher Rudge, giảng viên Đại học Sydney. Trong quá trình rà soát từng dòng, ông phát hiện những vi phạm nghiêm trọng về tính liêm chính và độ tin cậy.

Là chuyên gia trong lĩnh vực pháp lý và quản lý, ông Rudge nhanh chóng nhận ra các chi tiết bất thường: hơn 20 lỗi chỉ trong phần trích dẫn, trong đó có những tài liệu được AI trích dẫn nhưng không hề tồn tại.

Một trong những trường hợp nổi bật liên quan đến giáo sư luật Lisa Burton Crawford. Trong khi bà thực sự có tác phẩm “The Rule of Law and the Australian Constitution” (Pháp quyền và Hiến pháp Australia), báo cáo của Deloitte lại trích dẫn một cuốn sách hoàn toàn bịa đặt mang tên “The Rule of Law and Administrative Justice in the Welfare State, a study of Centerlink”.

Khi được hỏi, bà Crawford khẳng định thẳng thắn: “Tôi chưa bao giờ viết cuốn sách nào có tiêu đề như vậy”.

Không chỉ vậy, báo cáo còn bịa ra các trích dẫn pháp lý. Trong một ví dụ nghiêm trọng, Deloitte trích dẫn sai vụ án liên bang “Deanna Amato kiện Chính phủ Liên bang”, và thậm chí bịa thêm một đoạn phán quyết dài 4–5 dòng – mà theo Tiến sĩ Rudge, “không hề tồn tại trong bản án thật”.

Sau khi bị phát hiện, Deloitte thừa nhận “báo cáo có chứa lỗi” liên quan đến vụ án Amato.

Một lỗi khác khiến dư luận choáng váng là việc AI bịa ra một bài phát biểu giả, gán bài phát biểu này cho “Thẩm phán Natalie Kuis Perry” – trong khi tên thật của vị thẩm phán là Melissa Perry, và bài phát biểu ấy chưa bao giờ tồn tại.

Những “ảo giác” (hallucinations) này thể hiện thất bại nghiêm trọng trong khâu kiểm soát chất lượng của Deloitte và cho thấy AI có thể tạo ra thông tin sai lệch một cách thuyết phục nếu không được kiểm chứng chặt chẽ.

Hoàn tiền và lời kêu gọi minh bạch

Trước làn sóng phản ứng dữ dội, Deloitte đã phát hành lại bản báo cáo vào ngày 3/10, kèm phụ lục tiết lộ việc sử dụng mô hình Azure OpenAI GPT-4o. Hãng khẳng định các kết luận chính của báo cáo vẫn “vững chắc”, nhưng đồng ý hoàn trả 97.000 USD, tương đương khoản thanh toán cuối cùng của hợp đồng.

Phản ứng từ chính phủ Australia vô cùng gay gắt. Trong buổi điều trần tại Thượng viện, các quan chức DEWR gọi đây là “hành vi không thể chấp nhận được”. Một phát ngôn viên nói: “Nhân viên của tôi đáng lẽ ra không cần phải kiểm tra lại phần trích dẫn của một nhà thầu tư vấn”.

Thượng nghị sĩ Công đảng Deborah O’Neill chỉ trích thẳng: “Deloitte đang gặp vấn đề về trí tuệ con người. Chuyện này đáng buồn nhiều hơn là đáng cười”.

Bà mỉa mai rằng nếu đây là chất lượng của một tập đoàn tư vấn hàng đầu, thì chính phủ có lẽ nên mua thẳng gói ChatGPT thay vì chi tiền thuê hãng tư vấn: “Có lẽ thay vì thuê các công ty lớn, bên đặt hàng nên đăng ký tài khoản ChatGPT sẽ hiệu quả hơn”.

Nguy cơ từ “AI Slop” trong hoạch định chính sách

Vụ việc này làm dấy lên lo ngại về hiện tượng “AI slop” – những nội dung thiếu chất lượng, sai sự thật hoặc vô nghĩa do AI tạo ra nhưng được trình bày như tài liệu chuyên môn. Khi những nội dung như vậy xâm nhập vào các báo cáo định hướng chính sách công, hậu quả có thể vô cùng nghiêm trọng.

Tiến sĩ Rudge nhận xét rằng các bản chỉnh sửa sau đó còn bộc lộ thêm vấn đề: nhiều trích dẫn giả ban đầu đã được thay bằng hàng loạt nguồn mới, cho thấy “lập luận trong báo cáo không dựa trên bằng chứng cụ thể nào ngay từ đầu”.

Bê bối của Deloitte phản ánh thách thức ngày càng lớn trong việc phát hiện nội dung do AI tạo ra. Dù đã có các công cụ nhận diện, hiệu quả của chúng vẫn gây tranh cãi.

Điều này dẫn đến nguy cơ những báo cáo sai lệch có thể được xem là hợp lệ, từ đó ảnh hưởng tới các quyết định chính sách ở cấp cao nhất.

Theo Winbuzzer