Sự phát triển nhanh chóng của AI đã đặt ra câu hỏi về việc liệu chúng ta có đang lập trình cho sự diệt vong của nhân loại hay không. Trong bối cảnh các hệ thống AI trở nên mạnh mẽ hơn, chúng có thể gây ra rủi ro cho nhân loại nếu một ngày nào đó AI nằm ngoài tầm kiểm soát của con người.
Để tránh kịch bản ngày tận thế đó, Mustafa Suleyman, người đồng sáng lập bộ phận AI DeepMind của Google, cho biết có một số khả năng nhất định mà chúng ta nên loại trừ khi nói đến trí tuệ nhân tạo.
Trong một cuộc phỏng vấn gần đây với MIT Technology Review, Suleyman gợi ý rằng chúng ta nên loại trừ khả năng AI có thể tự cải thiện theo thời gian.
Ông nói với MIT Technology Review: “Bạn sẽ không muốn để AI có thể tự cập nhật các đoạn code riêng mà không có sự giám sát của con người. Có lẽ điều này thậm chí phải là một hoạt động cần được yêu cầu cấp phép - giống như hoạt động xử lý vật liệu hạt nhân".
Và mặc dù có sự tập trung đáng kể vào quy định về AI ở cấp độ tổ chức - chỉ mới tuần trước, các nhà điều hành công nghệ bao gồm Sam Altman, Elon Musk và Mark Zuckerberg đã tập trung tại Washington để tham dự một diễn đàn kín về AI - Suleyman nói thêm rằng điều đó quan trọng đối với mọi người để đặt ra các giới hạn về cách những hệ thống này sử dụng dữ liệu.
“Về cơ bản, đó là việc thiết lập các ranh giới, các giới hạn mà AI không thể vượt qua”, ông nói với Tạp chí Công nghệ MIT, “và cần đảm bảo rằng các ranh giới đó tạo ra sự an toàn có thể chứng minh được thông qua cách công nghệ này tương tác với các AI khác hoặc với con người".
Năm ngoái, ông Suleyman đồng sáng lập công ty khởi nghiệp AI, Inflection AI, công ty có chatbot Pi được thiết kế để trở thành người lắng nghe trung lập và hỗ trợ về mặt cảm xúc. Ông Suleyman nói với MIT Technology Review rằng mặc dù Pi không thực sự tân tiến như các chatbot khác nhưng nó “hoàn toàn có thể kiểm soát được”.
Và trong khi ông Suleyman nói với MIT Technology Review rằng ông ấy “lạc quan” rằng AI có thể được điều chỉnh một cách hiệu quả, thì ông cho biết mình dường như không lo lắng về một sự kiện tận thế nào đó. Ông nói rằng "có khoảng 101 vấn đề thực tế hơn" mà chúng ta nên tập trung giải quyết như quyền riêng tư đến nhận dạng khuôn mặt và kiểm duyệt trực tuyến.
Ông Suleyman chỉ là một trong số nhiều chuyên gia trong lĩnh vực này lên tiếng về quy định của AI. Demis Hassabis, một người đồng sáng lập DeepMind khác, đã nói rằng việc phát triển công nghệ trí tuệ nhân tạo nói chung nên được thực hiện “một cách thận trọng bằng phương pháp khoa học” và liên quan đến các cuộc thử nghiệm nghiêm ngặt.
Kể từ tháng 3, gần 34.000 người bao gồm cả những "bố già AI" như Geoffrey Hinton và Yoshua Bengio cũng đã ký một bức thư ngỏ từ Viện Cuộc sống Tương lai phi lợi nhuận kêu gọi các phòng thí nghiệm AI tạm dừng đào tạo về bất kỳ công nghệ nào mạnh hơn GPT-4 của OpenAI.
Theo Business Insider