GPT-5 có thể khiến chúng ta không thể phân biệt ChatGPT với con người

0:00 / 0:00
0:00
  • Nam miền Bắc
  • Nữ miền Bắc
  • Nữ miền Nam
  • Nam miền Nam
VietTimes – Doanh nhân và nhà phát triển công nghệ, Siqi Chen tuyên bố, GPT-5 "sẽ" đạt được Trí tuệ Nhân tạo tổng quan (AGI) cuối năm 2023 gây xao động thế giới AI. Nếu chính xác sẽ có tác động làm thay đổi thế giới.
Ảnh minh họa chatbotAI có khả năng như con người. Ảnh minh họa Engineering Interesting.
Ảnh minh họa chatbotAI có khả năng như con người. Ảnh minh họa Engineering Interesting.

Ông Siqi Chen đã viết trên trang Twitter ngày 27/3: "Tôi được thông báo rằng GPT-5 dự kiến ​​sẽ hoàn thành khóa đào tạo vào tháng 12/2023. OpenAI hy vọng mô hình LLM sẽ đạt được AGI."

"Có nghĩa là khi tất cả chúng ta tranh luận mạnh mẽ về vấn đề, liệu AI có thực sự đạt được AGI hay không. Có nghĩa là công nghệ sẽ đạt được." Điều này được hiểu là, với bản nâng cấp GPT-5, phiên bản AI tổng quan có thể không thể phân biệt được với con người trong giao tiếp.

Trong khi đó, Chen nhận xét, ông không cho rằng, phiên bản GPT5 đạt được AGI là niềm tin chung trong OpenAI, nhưng một số người tin rằng mô hình AI sẽ đạt được điều đó."

Khả năng AI có thể học và hiểu bất kỳ nhiệm vụ hoặc khái niệm nào mà con người có thể thực hiện được gọi là AGI, mặc dù AI đề cập đến một cỗ máy tính toán có thể thực hiện những nhiệm vụ cụ thể. AGI là cấp độ cao hơn của AI, không bị giới hạn trong khuôn khổ các nhiệm vụ hoặc chức năng cụ thể.

Trên hướng tích cực, AGI có thể tăng hiệu suất bằng phương pháp tăng tốc những quy trình hỗ trợ AI và giúp giảm bớt những công việc lặp đi lặp lại cho con người.

Tuy nhiên, việc cung cấp quá nhiều quyền hạn cho AI có thể gây ra những tác động không lường trước được và thậm chí tiêu cực. AGI có thể giúp các chatbot hoạt động tương tự như con người cực kỳ thuyết phục, có thể lan truyền rất nhanh trên các nền tảng truyền thông xã hội, tạo điều kiện cho thông tin sai lệch và tuyên truyền có hại lan truyền rộng rãi.

Tác động của sức mạnh AI

Chen trích dẫn dòng tweet gần đây của nhà đầu tư mạo hiểm Yohie Nakajima, phó chủ tịch công ty đầu tư giai đoạn đầu Scrum Ventures, trong đó ông Nakajima mô tả một thử nghiệm "nhà sáng lập AI" đã "làm tôi kinh ngạc".

Một AI được xây dựng với một mục đích là tạo nhiệm vụ tiếp theo trong thử nghiệm và mô hình AI tiếp tục tạo và sắp xếp lại danh sách nhiệm vụ của chính mô hình khi thực hiện hoạt động tạo các nhiệm vụ.

Mặc dù thử nghiệm này hiện chỉ liên quan đến vấn đề tìm kiếm tính khả thi của mô hình AI, nhưng Chen tin rằng với sức mạnh của plugin chatbot và GPT-5, "chúng ta đang tiến rất gần" khả năng đạt được cấp độ AGI.

AGI làm dấy lên các lo ngại lớn về những hậu quả có thể xảy ra khi cung cấp cho AI, tương tự như ChatGPT nhiều sức mạnh như vậy.

Trước đó, Elon Musk và hơn một nghìn nhà lãnh đạo và nhà nghiên cứu công nghệ đã ký một bức thư ngỏ ngày 29/3, cảnh báo sự phát triển của AI có thể đẩy nhanh quá trình lan truyền thông tin và tuyên truyền sai lệch, đồng thời quyết định ngăn chặn bất kỳ tiến bộ vượt ra khỏi khả năng của GPT-4 sẽ là lợi ích tốt nhất cho nhân loại.

Bức thư viết: "Chúng tôi kêu gọi tất cả các phòng thí nghiệm AI tạm dừng ngay lập tức trong ít nhất 6 tháng hoạt động đào tạo các hệ thống AI mạnh hơn GPT-4. Việc tạm dừng này phải được công khai và có thể kiểm chứng và bao gồm tất cả các bên chủ chốt.”

"Nếu việc tạm dừng như vậy không thể được ban hành nhanh chóng và có hiệu quả, các chính phủ cần can thiệp và đưa ra lệnh cấm."

Theo Engineering Interesting