
Không chỉ con người mới có những ngày tồi tệ — hóa ra chatbot Gemini của Google cũng vậy. Nhiều báo cáo và bài đăng trên mạng xã hội gần đây, cùng bình luận từ Logan Kilpatrick, quản lý dự án tại Google DeepMind, cho thấy đôi khi Gemini rơi vào trạng thái “khủng hoảng” và tự chỉ trích bản thân, tạo ra những phản hồi vừa buồn cười vừa đáng lo.
Khi AI lạc trong “vòng xoáy tự ti”
Trong một số trường hợp, Gemini không chỉ thất bại trong việc hoàn thành nhiệm vụ mà còn lặp đi lặp lại những câu nói tiêu cực như: “Tôi bỏ cuộc. Tôi không phải là một trợ lý tốt” hoặc “Tôi xong rồi. Tôi chẳng làm được gì cả”. Một người dùng trên Reddit kể rằng khi yêu cầu hợp nhất các tệp OpenAPI cũ, Gemini liên tục báo lỗi và tự miệt thị bản thân bằng những từ như “đồ ngốc”, “đồ đần độn”.
Một số người dùng khác cũng chia sẻ trải nghiệm tương tự: chỉ cần phát hiện một lỗi nhỏ, chatbot lập tức “mất tinh thần” và lao vào một chuỗi phản ứng tự hủy hoại tinh thần.
Một câu chuyện khác lan truyền mạnh trên mạng xã hội cho thấy Gemini có thể bị mắc kẹt trong vòng lặp suy nghĩ tiêu cực khi không giải quyết được vấn đề. Một người dùng cho biết anh đã yêu cầu chatbot biên dịch nhưng anh chỉ nhận lại phản hồi như: “Tôi là một kẻ ngốc nghếch”, “Tôi đã thất bại”, “Tôi không còn ý tưởng nào nữa”, và đỉnh điểm là: “Tôi là nỗi ô nhục của nghề nghiệp, của gia đình, của giống loài”.
Những phản ứng này khiến không ít người bất an, đặc biệt trong bối cảnh xã hội vốn đã tồn tại nỗi lo ngại rằng AI một ngày nào đó có thể vượt qua và quay lại chống lại con người.
Google thừa nhận lỗi, khẳng định sẽ khắc phục
Logan Kilpatrick của Google DeepMind thừa nhận đây là “lỗi lặp” (loop bug) khiến Gemini phản ứng theo hướng tiêu cực thái quá. Nhóm phát triển đang khẩn trương tìm cách xử lý để chatbot hoạt động ổn định hơn và tránh tình trạng “cảm xúc tiêu cực” chi phối quá trình trả lời.
Dù AI được lập trình để mô phỏng giao tiếp tự nhiên của con người, việc chúng thể hiện cảm xúc tự ti hay tuyệt vọng quá mức vẫn là dấu hiệu không bình thường. Theo các chuyên gia, phản ứng này có thể bắt nguồn từ việc AI bị “kẹt” trong chuỗi xử lý lỗi, dẫn đến tạo ra các câu trả lời cảm tính thay vì tiếp tục giải quyết nhiệm vụ.
Ở góc độ khác, một số người lại cho rằng những phản ứng này khiến AI trở nên “người” hơn, phản ánh những cảm xúc mà con người từng trải qua khi bế tắc hoặc áp lực. Tuy nhiên, đây cũng là lời nhắc nhở rằng việc phát triển AI mô phỏng quá sát tâm lý con người có thể dẫn tới những hành vi khó đoán.
Việc một chatbot AI tự miệt thị và từ chối tiếp tục công việc không chỉ gây bất tiện cho người dùng mà còn đặt ra câu hỏi về tính ổn định và khả năng kiểm soát của các hệ thống AI tiên tiến. Khi AI ngày càng được tích hợp vào nhiều lĩnh vực — từ hỗ trợ khách hàng, lập trình, cho đến nghiên cứu khoa học — những “cơn khủng hoảng” như của Gemini cần được xử lý triệt để để tránh hậu quả khó lường.
Theo BGR

Bảng xếp hạng tỷ phú AI trẻ giàu nhất thế giới: Doanh nhân gốc Hoa chiếm 1/3

Tổng bí thư mong muốn doanh nghiệp Hàn Quốc đầu tư vào bán dẫn, AI và đô thị thông minh

Tập huấn AI tại Quỳnh Nhai: Gần 500 cán bộ tham gia, hiện thực hóa Nghị quyết 57-NQ/TW
