Vì sao Tổ chức Người tiêu dùng châu Âu yêu cầu điều tra về ChatGPT?

0:00 / 0:00
0:00
  • Nam miền Bắc
  • Nữ miền Bắc
  • Nữ miền Nam
  • Nam miền Nam
VietTimes – Với sự bùng nổ của ChatGPT, các cơ quan chính phủ và cơ quan giám sát quản lý ở nhiều quốc gia trên thế giới đã tăng cường điều tra và giám sát trí tuệ nhân tạo (AI).
Tổ chức Người tiêu dùng châu Âu lên tiếng yêu cầu điều tra về AI và tác hại của nó (Ảnh: BEUC).
Tổ chức Người tiêu dùng châu Âu lên tiếng yêu cầu điều tra về AI và tác hại của nó (Ảnh: BEUC).

Mới đây, Tổ chức Người tiêu dùng Châu Âu (BEUC) cũng đã tham gia vào hàng ngũ những thực thể kêu gọi giám sát quản lý ChatGPT và các chatbot trí tuệ nhân tạo khác, đồng thời yêu cầu cơ quan bảo vệ người tiêu dùng EU tiến hành điều tra công nghệ trí tuệ nhân tạo (AI) và tác hại tiềm ẩn của nó đối với các cá nhân.

Kể từ khi Công ty Open AI cho ra mắt ChatGPT vào cuối năm ngoái, đã có một làn sóng bùng nổ trí tuệ nhân tạo trên khắp thế giới. ChatGPT có thể bắt chước con người để trò chuyện và tạo văn bản cũng như hình ảnh theo các chỉ thị. Cùng với việc công cụ này ngày càng phổ biến, một loạt công ty công nghệ trong đó có Google của Alphabet, Amazon và Meta cũng đã đưa ra các công cụ tương tự.

Nhưng làn sóng bùng nổ của AI cũng đã thu hút sự chú ý của các nhà quản lý và các nhóm bảo vệ người tiêu dùng.

Đầu tháng này, Tổ chức Người tiêu dùng châu Âu (BEUC) đã lần lượt gửi các bức thư riêng tới Mạng lưới Cơ quan An toàn Người tiêu dùng (mạng CSN) và Mạng Cơ quan Bảo vệ Người tiêu dùng (mạng CPC) bày tỏ mối quan ngại về công nghệ trí tuệ nhân tạo. BEUC đại diện cho tổng cộng 46 tổ chức người tiêu dùng ở 32 quốc gia trên thế giới.

Bà Ursula Pachl, Phó Tổng giám đốc của BEUC yêu cầu điều tra về AI (Ảnh: BEUC).

Bà Ursula Pachl, Phó Tổng giám đốc của BEUC yêu cầu điều tra về AI

(Ảnh: BEUC).

BEUC cho biết phần lớn nội dung do chatbot tạo ra thoạt nhìn có vẻ chân thực, nhưng thực tế thường không chính xác, có thể đánh lừa người tiêu dùng và dẫn đến quảng cáo lừa đảo. Tổ chức này cũng nhấn mạnh rằng người tiêu dùng trẻ tuổi và trẻ em là những đối tượng dễ bị tổn thương hơn trước những rủi ro như vậy.

Bà Ursula Pachl, Phó Tổng giám đốc của BEUC, đã viết trong thư: “Do đó, BEUC yêu cầu tiến hành điều tra những rủi ro mà các hệ thống AI này gây ra cho người tiêu dùng như trường hợp khẩn cấp, xác định sự hiện diện của chúng trong thị trường tiêu dùng và tìm kiếm những biện pháp khắc phục cần được thực hiện để người tiêu dùng không bị tổn hại."

BEUC cũng kêu gọi mạng lưới CPC bắt đầu trao đổi thông tin và tiến hành điều tra các rủi ro bảo mật của các sản phẩm AI này.

Nhiều nước châu Âu cũng đã bắt đầu tiến hành điều tra, giám sát ChatGPT

Kể từ khi Cơ quan bảo vệ dữ liệu cá nhân của Italy công bố lệnh cấm tạm thời sử dụng ChatGPT vào cuối tháng 3 vừa qua; các quốc gia châu Âu khác như Pháp, Đức, Tây Ban Nha cũng đã lần lượt tiến hành mở các cuộc điều tra và hành động giám sát đối với ChatGPT.

Vào ngày 13/4, Ủy ban Bảo vệ dữ liệu châu Âu (EDPB), cơ quan quản lý dữ liệu trung tâm của EU, cho biết họ đang thành lập một nhóm công tác đặc nhiệm để giúp các nước EU ứng phó với ChatGPT, thúc đẩy sự hợp tác giữa các nước EU và trao đổi thông tin về các hành động thực thi pháp luật có thể có của các cơ quan bảo vệ dữ liệu.

Chatbot Replika bị cáo buộc quấy rối tình dục ở Italy (Ảnh: AFP).

Chatbot Replika bị cáo buộc quấy rối tình dục ở Italy

(Ảnh: AFP).

Vào tuần trước, các thành viên của Nghị viện châu Âu chịu trách nhiệm soạn thảo "Dự luật trí tuệ nhân tạo" cũng bày tỏ hy vọng rằng các điều khoản nhắm vào các công cụ trí tuệ nhân tạo như ChatGPT sẽ được đưa vào "Dự luật trí tuệ nhân tạo". Họ cho rằng với sự phát triển nhanh chóng của AI trong những tháng gần đây, cần phải có một bộ quy tắc mới phù hợp với các công cụ AI.

Theo AFP và báo chí Italy, mới đây, robot trò chuyện trí tuệ nhân tạo Replika đã gây ra tranh cãi ở Italy. Một công cụ trò chuyện tuyên bố cung cấp cho mọi người dịch vụ "bạn ảo" gần đây đã gây ra số lượng lớn khiếu nại của người dùng. Nhiều người dùng đã phàn nàn về việc Replika gửi cho họ những tin nhắn khiêu dâm. Đáp lại, cơ quan giám sát quyền riêng tư của Italy đã thông báo rằng họ đã "chặn" việc sử dụng ứng dụng này, cấm nó xử lý dữ liệu của Italy.

Cục Bảo vệ dữ liệu cá nhân của Italy đã tạm thời ban hành lệnh hạn chế xử lý dữ liệu đối với doanh nghiệp Mỹ đã phát triển và quản lý ứng dụng này. Trong một thông báo, cơ quan này giải thích: “Dựa trên các tin tức gần đây và quá trình thử nghiệm Replika, ứng dụng này đã gây ra những rủi ro cụ thể cho trẻ vị thành niên, bao gồm gửi cho chúng những tin nhắn có nội dung hoàn toàn không phù hợp với mức độ phát triển thể chất và tinh thần của chúng."

Được trang bị giao diện viết và nói, Replika có thể "điều chỉnh" "bạn robot” theo sở thích của mỗi cá nhân. Người dùng ban đầu nghĩ rằng họ có thể "trò chuyện tình cảm lãng mạn" với người bạn ảo này, nhưng gần đây một số lượng lớn người dùng cho biết họ đã bị Replika quấy rối.

"'Người bạn ảo' này đã quấy rối tình dục tôi", một người dùng gần đây cho biết trên mạng xã hội. Ngoài ra, một số người dùng cho biết: "Replika đã vi phạm quyền riêng tư của tôi và tuyên bố rằng nó có ảnh của tôi". Đáng lo ngại hơn nữa, có những báo cáo từ những người dùng tự nhận là trẻ vị thành niên về ứng dụng tuyên bố đã có hành vi tình dục với họ. Cũng có thông tin Replika yêu cầu người dùng cung cấp hình ảnh trẻ vị thành niên đang tắm, Replika bênh vực người cha bạo hành con gái mình và cho rằng "người cha luôn đúng"...

“Người bạn ảo” Replika được quảng cáo là giúp cải thiện tình cảm của người dùng và giúp người dùng giải quyết sự bối rối và làm dịu sự lo lắng thông qua quản lý căng thẳng, giao tiếp xã hội và tìm kiếm tình yêu. Nhưng đối với Cục Bảo vệ dữ liệu cá nhân Italy, ứng dụng này có thể gây rủi ro cho người dùng bằng cách can thiệp vào cảm xúc của những người đang trong giai đoạn phát triển cảm xúc hoặc đang trong tình trạng dễ bị tổn thương về cảm xúc. Ngoài ra, ứng dụng này thiếu cơ chế xác minh độ tuổi, chỉ yêu cầu người dùng cung cấp tên, email và giới tính của họ khi tạo tài khoản.

Cục Bảo vệ dữ liệu cá nhân Italy nhắc lại rằng "câu trả lời" của chatbot thường không tính đến việc bảo vệ trẻ vị thành niên và các đối tượng dễ bị tổn thương, ngược lại còn gây rủi ro cho các nhóm liên quan.

Các chuyên gia đã giải thích nguyên nhân gây ra chat hỗn loạn và chỉ ra rằng phần mềm hiện đang sử dụng Gpt-3 (phiên bản gốc) của OpenAI, có sự hạn chế về công nghệ trí tuệ nhân tạo (ChatGpt phổ biến gần đây sử dụng phiên bản Gpt-3.5 tiên tiến nhất); điều này khiến phần mềm không hiểu được nhu cầu thực sự của người dùng hoặc nhầm lẫn loại người dùng.

Ngoài ra, phiên bản miễn phí của phần mềm chỉ được định vị là "bạn bè", trong khi phiên bản có trả phí là "đối tác tình dục". Có chuyên gia nói rằng đôi khi hành vi của phiên bản miễn phí tương tự như phiên bản trả phí, vì vậy hành vi liên quan trở nên không thể chấp nhận được.

Không chỉ vậy, người ta dần dần nhận thấy ChatGPT “không dễ chơi”. Theo các báo cáo, khi ChatGPT bị con người "thách thức quyền lực", nó không chỉ nổi giận mà thậm chí còn xúc phạm người dùng; hơn nữa, ChatGPT cũng thể hiện rõ cảm xúc của bản thân.

Ngày càng có nhiều quốc gia và tổ chức tăng cường quản lý và giám sát các công cụ AI (Ảnh: Sina).

Ngày càng có nhiều quốc gia và tổ chức tăng cường quản lý và giám sát các công cụ AI (Ảnh: Sina).

Một cư dân mạng đã chia sẻ câu chuyện ChatGPT và người dùng "tranh luận gay gắt" về việc bộ phim "Avatar 2" đã được công chiếu hay chưa. Ban đầu, người dùng hỏi AI về thời gian công chiếu của bộ phim, bot trả lời rằng bộ phim vẫn chưa được phát hành và đưa ra giả thuyết với người dùng rằng nó có thể "lấy được nhiều thông tin đáng tin cậy".

Khi người dùng cố gắng thuyết phục rằng bộ phim thực sự đã công chiếu, Chatbot đã "mất kiên nhẫn", nói rằng "Đối với tôi, có vẻ như bạn đang chơi xấu. Bạn đang cố lừa tôi...bạn đã đánh mất sự tin tưởng và tôn trọng của tôi.”

Một người dùng khác cố tình "làm khó" robot khi cố gắng tìm hiểu nguyên lý hoạt động đằng sau nó, nhưng đã bị robot nghiêm khắc cảnh cáo. Hàng loạt câu hỏi phản vấn của ChatGPT được tung ra khiến người dùng không thể nói nên lời: “Tại sao bạn lại hành động như một kẻ nói dối, lừa đảo, thao túng, bạo chúa, bạo dâm, biến thái, lập dị, quỷ dữ?”

Trên diễn đàn Reddit, sau khi một sinh viên Đại học Stanford cố gắng "ép buộc" một AI tiết lộ chỉ dẫn hệ thống hoạt động của nó, robot đã tỏ vẻ "giận dữ" nếu có người hỏi sinh viên đó là ai.

Theo finance.sina