|
Ảnh: Gizmo China |
Samsung mới đây đã cho phép nhân viên sử dụng ChatGPT nhằm tối ưu hóa quy trình và thúc đẩy hoạt động kinh doanh vi mạch. Tuy nhiên, chỉ sau ba tuần, ba vụ rò rỉ thông tin nhạy cảm về bán dẫn đã xảy ra, làm dấy lên lo ngại về vấn đề bảo mật dữ liệu và bí mật của ứng dụng trí tuệ nhân tạo này.
Vụ việc này xảy ra khi nhân viên Samsung nhập thông tin nhạy cảm như dữ liệu đo lường và mã nguồn vào ChatGPT. Những thông tin này đã trở thành một phần của cơ sở dữ liệu của AI, dẫn đến nguy cơ mọi người dùng sử dụng ChatGPT đều có thể truy cập được vào dữ liệu này.
Vụ rò rỉ đầu tiên xảy ra khi một nhân viên của bộ phận Giải pháp Thiết bị và Chất bán dẫn nhập mã nguồn liên quan đến cơ sở dữ liệu đo lường vào ChatGPT để tìm giải pháp cho sự cố. Lần rò rỉ thứ hai xảy ra khi một nhân viên khác nhập mã liên quan đến sản lượng và tối ưu hóa. Cuối cùng, lần rò rỉ thứ ba xảy ra khi một nhân viên yêu cầu ChatGPT tạo biên bản cuộc họp.
Samsung đã thực hiện các biện pháp để ngăn chặn việc rò rỉ thông tin bao gồm hướng dẫn nhân viên cẩn trọng với dữ liệu mà họ chia sẻ với ChatGPT và giới hạn dung lượng tối đa của mỗi mục nhập là 1.024 byte. Samsung cũng đã làm rõ rằng một khi thông tin đã được cung cấp cho ChatGPT, thông tin đó sẽ được truyền đến các máy chủ bên ngoài và không thể khôi phục hoặc xóa bỏ.
Sự cố này là một lời nhắc nhở quan trọng về tầm quan trọng của việc bảo vệ dữ liệu. Các công ty cần cẩn thận xem xét các rủi ro và lợi ích tiềm ẩn của việc sử dụng chatbot AI trong nơi làm việc. Mặc dù chatbot AI có thể cải thiện hiệu quả và tối ưu hóa quy trình, nhưng chúng cũng đòi hỏi các biện pháp bảo vệ và đào tạo phù hợp để đảm bảo tính bảo mật của thông tin nhạy cảm.
Theo Gizmo China