Sam Altman, Giám đốc điều hành của OpenAI, công ty phát triển ứng dụng trí tuệ nhân tạo ChatGPT, đã cảnh báo rằng công nghệ này đi kèm với những mối nguy hiểm thực sự tiềm tàng.
Mới đây, Sam Altman đã cảnh báo về nguy cơ lạm dụng trí tuệ nhân tạo (AI) cho mục đích tổ chức các chiến dịch thông tin sai lệch, đặc biệt là khi các mô hình phát triển AI trở nên phức tạp hơn và có thể được sử dụng để tấn công mạng.
"Chúng ta cần phải cẩn trọng. Mọi người nên cảm thấy vui khi chúng tôi bày tỏ sự lo ngại về AI", Sam chia sẻ vào ngày 17/3. Ông nhấn mạnh rằng các nhà quản lý và cộng đồng cần phát triển theo kịp với công nghệ để đối phó và ngăn chặn những hậu quả tiêu cực với con người. Tuy nhiên, ông nhấn mạnh rằng AI là "công nghệ tuyệt vời nhất được loài người phát triển".
Sau khi OpenAI giới thiệu mô hình GPT-4, chưa đầy bốn tháng sau khi công bố phiên bản cũ, Sam Altman đã cảnh báo về mối đe dọa của trí tuệ nhân tạo (AI). Ông đánh giá rằng mô hình mới "không hoàn hảo", tuy nhiên nó đạt điểm gần như tuyệt đối trong bài kiểm tra toán của một trường trung học ở Mỹ và có thể viết code bằng phần lớn ngôn ngữ lập trình hiện nay.
Mặc dù có nhiều lo ngại về nguy cơ AI thay thế con người, Altman khẳng định rằng AI chỉ có thể hoạt động dưới sự chỉ đạo và giám sát của con người. Ông cho rằng AI là một công cụ trong tầm kiểm soát, tuy nhiên ông lo ngại rằng sẽ có những người không đặt giới hạn an toàn với những gì được nhập vào AI. Altman cảnh báo rằng xã hội không còn nhiều thời gian để tìm phương án quản lý vấn đề này.
Elon Musk, nhà đồng sáng lập OpenAI, đã nhiều lần cảnh báo rằng AI và trí tuệ nhân tạo tổng hợp (AGI) có thể nguy hiểm hơn cả vũ khí hạt nhân. Altman thừa nhận rằng phiên bản GPT-4 sử dụng phương thức "suy luận, suy diễn" thay vì ghi nhớ, điều này có thể dẫn đến các phản hồi kỳ lạ với người dùng. Ông luôn nhắc nhở mọi người về vấn đề ảo giác, trong đó mô hình AI đưa ra các nội dung được coi là thông tin thực tế, nhưng thực chất đây lại là nội dung mà công nghệ này tự bịa ra, không phải sự thật.
Theo The Guardian