Đó là một nội dung thể hiện trong báo cáo của Kaspersky tại Diễn đàn Quản trị Internet của Liên Hợp Quốc (UNIGF).
Cụ thể, Kaspersky cho rằng, để thuận lợi trong việc phát triển và sử dụng trí tuệ nhân tạo (AI), học máy (ML), các doanh nghiệp cần cân nhắc 6 nguyên tắc sau:
Sự minh bạch: Nguyên tắc minh bạch thể hiện bằng việc các công ty nên thông báo cho khách hàng của mình về việc công nghệ AI, ML được sử dụng trong các sản phẩm và dịch vụ.
Sự an toàn: Tính an toàn được phản ánh rõ rệt trong các giải pháp của các đơn vị an ninh mạng nhằm đảm bảo chất lượng của hệ thống AI, ML. Trong đó, bao gồm kiểm toán bảo mật dành riêng cho AI/ML, các bước để giảm thiểu sự phụ thuộc vào bộ dữ liệu của bên thứ ba trong quá trình đào tạo các giải pháp do AI thực hiện và ưu tiên các công nghệ ML điện toán đám mây…
Kiểm soát của con người: Nhu cầu hiệu chỉnh công việc của hệ thống AI/ML khi phân tích các mối đe dọa phức tạp, đặc biệt là các APT (tấn công có chủ đích), đã giải thích cho tầm quan trọng của việc kiểm soát bởi con người.
Sự riêng tư: Đảm bảo quyền riêng tư trong việc sử dụng AI/ML cũng là một nguyên tắc đạo đức quan trọng. Dữ liệu lớn đóng vai trò then chốt trong quá trình đào tạo các hệ thống, nên các công ty làm việc với AI/ML phải cân nhắc đến quyền riêng tư của mỗi cá nhân một cách toàn diện.
Cam kết sử dụng cho mục đích an toàn: Nguyên tắc này chỉ đến việc các công ty an ninh mạng sử dụng hệ thống AI/ML cho mục đích phòng thủ, hướng đến việc xây dựng một thế giới an toàn hơn, bảo vệ người dùng và dữ liệu của họ.
Sự cởi mở đối thoại: Nguyên tắc cuối cùng Kaspersky đề cập đến sự cởi mở đối thoại của các đơn vị an ninh mạng với các bên liên quan nhằm chia sẻ những phương pháp thực tiễn tốt nhất trong việc sử dụng AI một cách có đạo đức./.