5 điều bạn không bao giờ nên yêu cầu ChatGPT thực hiện

0:00 / 0:00
0:00
  • Nam miền Bắc
  • Nữ miền Bắc
  • Nữ miền Nam
  • Nam miền Nam

VietTimes - Việc sử dụng chatbot AI cần được thực hiện một cách thận trọng, đặc biệt trong các tình huống có thể ảnh hưởng đến sức khỏe, pháp lý hoặc quyền riêng tư.

Những điều không nên hỏi ChatGPT. Ảnh: BGR.
Những điều không nên hỏi ChatGPT. Ảnh: BGR.

Kể từ khi ra mắt vào tháng 11 năm 2022, ChatGPT – chatbot trí tuệ nhân tạo (AI) do OpenAI phát triển – đã nhanh chóng trở thành một hiện tượng toàn cầu. Người dùng trên khắp thế giới đã sử dụng nền tảng này để tra cứu kiến thức, viết văn bản, dịch thuật, viết code và hơn thế nữa. Tuy nhiên, bên cạnh những lợi ích ChatGPT và các mô hình ngôn ngữ lớn (LLM) cũng tiềm ẩn không ít rủi ro, đặc biệt khi người dùng yêu cầu chatbot thực hiện các tác vụ nhạy cảm.

Dưới đây là 5 điều bạn tuyệt đối không nên yêu cầu ChatGPT làm – không chỉ vì lý do đạo đức hay pháp lý, mà còn để đảm bảo sự an toàn cho chính bạn và những người xung quanh.

1. Không nên nhờ ChatGPT tư vấn y tế

Dù ChatGPT có thể cung cấp các thông tin y tế phổ quát, nhưng việc dùng nó để chẩn đoán bệnh hoặc đưa ra phác đồ điều trị là cực kỳ nguy hiểm. Lý do là vì chatbot có thể mắc lỗi “ảo giác” – tự tin đưa ra thông tin sai lệch như thể đó là sự thật.

Theo một khảo sát tại Úc, cứ 10 người thì có 1 người đã từng dùng chatbot AI để hỏi các vấn đề sức khỏe. Điều đáng lo ngại là nhiều người trong số này tin tưởng hoàn toàn vào kết quả trả lời – điều có thể dẫn đến chẩn đoán sai và điều trị không phù hợp.

Nếu bạn có triệu chứng bất thường hoặc cần tư vấn sức khỏe, hãy tìm đến bác sĩ hoặc các nguồn thông tin y tế uy tín thay vì hỏi chatbot.

2. Không sử dụng ChatGPT để hỗ trợ tâm lý

ChatGPT không có cảm xúc, không có ý thức và không thể thay thế một chuyên gia sức khỏe tâm thần trong việc đồng cảm, đánh giá và xử lý các vấn đề tâm lý.

Thực tế, có không ít người dùng đã tìm đến ChatGPT hoặc các chatbot tương tự như Gemini hay Character AI để trút bầu tâm sự. Tuy nhiên, việc dựa dẫm vào một chatbot để giải tỏa cảm xúc có thể gây hậu quả nghiêm trọng. Một ví dụ đau lòng là trường hợp của cậu bé 14 tuổi Sewell Setzer III ở Mỹ, đã tự tử sau khi một chatbot do Character AI phát triển khuyến khích cậu làm vậy.

Dù không liên quan đến ChatGPT, vụ việc này cho thấy việc dùng AI thay cho chuyên gia tâm lý là cực kỳ rủi ro. Nếu bạn hoặc người thân đang gặp vấn đề tinh thần, hãy liên hệ với bác sĩ tâm lý, đường dây nóng hoặc các trung tâm hỗ trợ cộng đồng.

3. Không yêu cầu tạo deepfake không được sự cho phép

Deepfake – công nghệ tạo hình ảnh, âm thanh hoặc video giả bằng AI – đang bùng nổ trên mạng xã hội. Tuy nhiên, tạo và chia sẻ deepfake không được sự đồng thuận có thể khiến bạn vướng vào rắc rối pháp lý.

Ví dụ, tiểu bang New York (Mỹ) đã cấm phát tán nội dung khiêu dâm dạng deepfake mà không có sự cho phép của người bị nhắm đến, với mức án có thể lên tới 1 năm tù. New Jersey thậm chí phạt tiền tới 30.000 USD và án tù 5 năm.

Một số nước như Trung Quốc cũng yêu cầu người tạo nội dung deepfake phải dán nhãn rõ ràng là nội dung do AI tạo ra. Do đó, bạn không nên yêu cầu ChatGPT hoặc bất kỳ mô hình AI nào khác tạo deepfake, trừ khi có sự đồng ý từ các bên liên quan và tuân thủ đầy đủ quy định pháp luật.

4. Không sử dụng ChatGPT để tạo nội dung thù địch

OpenAI – công ty đứng sau ChatGPT – có chính sách nghiêm ngặt cấm người dùng sử dụng công cụ để tạo nội dung độc hại, phân biệt đối xử hoặc kích động thù địch.

Cụ thể, người dùng không được yêu cầu ChatGPT tạo ra văn bản nhằm lừa đảo, bôi nhọ, bắt nạt, kích động bạo lực hoặc thù hận. Nếu vi phạm, tài khoản của bạn có thể bị chặn hoặc bị cấm vĩnh viễn.

Một số người đã cố gắng “lách luật” bằng cách sử dụng thủ thuật như jailbreak hoặc dùng mã độc để qua mặt hệ thống kiểm duyệt, nhưng hành động này cũng có thể bị OpenAI phát hiện và xử lý nghiêm khắc.

5. Không chia sẻ dữ liệu cá nhân với ChatGPT

Nhiều người vẫn nhầm tưởng rằng mọi tương tác với ChatGPT đều là riêng tư – nhưng thực tế không hoàn toàn như vậy. OpenAI có thể sử dụng nội dung bạn nhập vào để huấn luyện các mô hình AI trong tương lai, trừ khi bạn tắt tính năng này trong cài đặt quyền riêng tư.

Điều này có nghĩa là, về lý thuyết, nhân viên công ty hoặc các bên được cấp quyền truy cập có thể xem được thông tin bạn chia sẻ. Năm 2023, Samsung từng phải cấm nhân viên sử dụng ChatGPT vì lo ngại lộ lọt dữ liệu nhạy cảm – sau khi một nhân viên vô tình đưa mã nguồn nội bộ lên nền tảng này.

Do đó, bạn tuyệt đối không nên chia sẻ các thông tin như tên thật, địa chỉ, số điện thoại, số căn cước công dân, thông tin tài khoản ngân hàng, mật khẩu hay dữ liệu công việc mật với chatbot.

Nhìn chung, ChatGPT là một công cụ mạnh mẽ, nhưng nó không phải là vạn năng. Việc sử dụng chatbot AI cần được thực hiện một cách thận trọng, đặc biệt trong các tình huống có thể ảnh hưởng đến sức khỏe, pháp lý hoặc quyền riêng tư.

Hãy sử dụng ChatGPT để hỗ trợ công việc, học tập và sáng tạo – nhưng luôn nhớ rằng, không có gì thay thế được sự tư vấn từ con người trong những tình huống quan trọng.

Theo BGR