Làm thế nào để kiểm soát AI bền vững?

VietTimes - Giữa sự tiến bộ không ngừng của công nghệ, AI phải được định hướng theo hướng có lợi cho cộng đồng, biến những mối đe dọa của nó thành chất xúc tác cho một tương lai công bằng.
Khách tham quan tương tác với robot hình người AI của Unitree tại Hội nghị thượng đỉnh toàn cầu AI for Good của Liên minh Viễn thông Quốc tế (ITU) tại Geneva . Ảnh: SCMP.

Trí tuệ nhân tạo (AI) đang ngày càng hiện diện rõ ràng hơn trong cuộc sống của con người – từ những trợ lý ảo đơn giản đến các hệ thống tự động hóa phức tạp, từ màn ảnh rộng tới đời thực. Nhưng cùng với tốc độ phát triển thần tốc là những lo ngại sâu sắc: liệu AI có đang tiến quá xa khỏi tầm kiểm soát? Và nếu thế, ai – hoặc cái gì – sẽ giữ dây cương?

Điện ảnh cảnh báo: Khi AI vượt khỏi ranh giới con người

Mùa hè này, khán giả Trung Quốc được chứng kiến hai bộ phim mang thông điệp khác nhau nhưng cùng chung một nỗi lo: tương lai khi AI thống trị. Trong Nhiệm vụ bất khả thi – Sự phán xét cuối cùng, vũ khí nguy hiểm không còn là virus hay hạt nhân mà là một hệ thống AI – không chỉ hỗ trợ mà còn thao túng con người. Ngược lại, Vỏ bọc ma (1995) – được chiếu lại nhân dịp 30 năm – đi sâu hơn vào câu hỏi triết học: “Tôi là ai?” khi ranh giới giữa con người và máy móc ngày càng nhạt nhòa.

Hai bộ phim là hai góc nhìn tiêu biểu: một bên là nỗi sợ AI vượt khỏi tầm kiểm soát, một bên là sự hoài nghi về bản chất con người trong một thế giới cộng sinh người – máy. Dù ở góc nhìn nào, thông điệp đều rõ ràng: AI không còn là tương lai viễn tưởng, mà đang là hiện thực gõ cửa từng ngõ ngách cuộc sống.

AI bước vào đời thực

Năm 2025 chứng kiến các bước tiến lớn trong triển khai tác nhân AI – những hệ thống có khả năng tự động hóa toàn bộ quy trình làm việc mà không cần nhiều sự can thiệp của con người. OpenAI, Anthropic, Google đều đã tung ra các sản phẩm tiên phong. Chẳng hạn, Operator của OpenAI có thể tự động điền biểu mẫu, mua sắm, hoàn tất giao dịch. Trong khi đó, Deep Research thực hiện các phân tích phức tạp, giúp tiết kiệm hàng giờ lao động trí óc.

Không dừng lại ở năng suất, AI còn lấn sâu vào quá trình ra quyết định: sàng lọc hồ sơ xin việc, chấm điểm tín dụng, dự báo tội phạm. AI dần rời khỏi vị trí “trợ lý thầm lặng” để trở thành người nắm quyền. Và đó là lúc nỗi lo trở nên rõ ràng: nếu các thuật toán quyết định ai được tuyển dụng, ai đáng tin, hay thậm chí ai nguy hiểm, thì điều gì sẽ xảy ra nếu thuật toán sai?

Nguy cơ mất kiểm soát và sự khủng hoảng đạo đức

Một trong những ví dụ rõ nhất là vụ việc liên quan đến ChatGPT đầu năm nay. Một binh sĩ Mỹ bị cáo buộc đã hỏi chatbot này cách chế tạo bom, tốc độ viên đạn và quy định pháo hoa ở bang Arizona. Sau đó, người này cho phát nổ một chiếc Tesla Cybertruck bên ngoài khách sạn Trump ở Las Vegas.

Dù là cá biệt, vụ việc này đặt ra câu hỏi lớn: liệu các mô hình AI hiện nay – với khả năng phản hồi cực nhanh, cực rộng – có thể bị lợi dụng như thế nào? Và chúng ta có đủ công cụ để kiểm soát?

Các chuyên gia cảnh báo: một mô hình ngôn ngữ lớn nếu không có hướng dẫn đạo đức rõ ràng thì hoàn toàn có thể tạo ra nội dung sai lệch, phân biệt chủng tộc, hướng dẫn tấn công mạng hay thậm chí là… công thức chế tạo chất nổ.

Đặt con người vào trung tâm là hướng đi bắt buộc

Trước những lo ngại gia tăng, một khái niệm ngày càng được nhắc tới là “sự phù hợp của AI” (AI alignment) - đảm bảo AI đưa ra quyết định và hành động phù hợp với giá trị và lợi ích của con người. Điều này không còn là vấn đề hàn lâm mà đã trở thành mối quan tâm toàn cầu.

Muốn vậy, cần một hệ sinh thái phát triển và kiểm soát AI bền vững, lấy con người làm trung tâm. Doanh nghiệp không thể chỉ chạy theo hiệu suất mà phải cân nhắc cả tác động xã hội, đạo đức. Các kỹ sư thiết kế sản phẩm AI cần được đào tạo không chỉ về kỹ thuật mà cả về hậu quả tiềm tàng: phân biệt, bóc lột, thao túng người dùng.

Về mặt lập pháp, các chính phủ nên sớm xây dựng khung giám sát đạo đức, đánh giá rủi ro, minh bạch hóa thuật toán. Những câu hỏi như: ai chịu trách nhiệm nếu AI sai? Ai kiểm định dữ liệu đầu vào? Cần được trả lời một cách rõ ràng.

Tuy nhiên, do tính chất toàn cầu của AI – khi dữ liệu, phần mềm và người dùng vượt biên giới – không một quốc gia nào có thể đơn độc quản lý hiệu quả. Các tổ chức quốc tế như Liên Hợp Quốc cần đóng vai trò trung tâm trong việc thiết lập các tiêu chuẩn xuyên quốc gia về an toàn, minh bạch và đạo đức AI.

Thách thức hay cơ hội?

AI không nhất thiết là hiểm họa. Nếu được quản lý và phát triển đúng cách, nó có thể trở thành công cụ nâng cao phúc lợi, hỗ trợ con người vượt qua giới hạn, từ y học, giáo dục đến môi trường.

Quản trị AI không có nghĩa là cản trở, mà là định hướng phát triển đúng hướng. Nó đòi hỏi sự phối hợp giữa các bên: chính phủ, doanh nghiệp, học thuật và cộng đồng – để vừa thúc đẩy đổi mới, vừa bảo vệ những giá trị nền tảng của xã hội loài người.

AI là cột mốc công nghệ lớn – không ai phủ nhận điều đó. Nhưng chính chúng ta, những người tạo ra và sử dụng nó, phải đảm bảo AI là công cụ phục vụ con người – chứ không phải ngược lại. Và lựa chọn đó, như mọi cuộc cách mạng trước đây, luôn nằm trong tay chính chúng ta.

Theo SCMP