AI đang nhanh chóng trở thành một phần không thể thiếu trong cuộc sống hàng ngày của chúng ta, thay đổi cách làm việc, giao tiếp và tương tác với thế giới xung quanh. Với việc AI tiếp tục tiến bộ và phát triển hơn nữa, điều quan trọng là phải xem xét các rủi ro và hậu quả tiềm ẩn...
Bài viết đăng trên trang Aljazeera ngày 13/6 cung cấp một cái nhìn tổng quan toàn diện về một số tình huống xấu nhất có thể phát sinh từ sự phát triển không kiểm soát của AI, từ khả năng hỗn loạn do vũ khí tự chủ gây ra cho đến nguy cơ siêu trí tuệ chống lại loài người, nêu bật những rủi ro tiềm tàng mà chúng ta phải ghi nhớ vì nhân loại tiếp tục phát triển và phụ thuộc vào những công nghệ mạnh mẽ này.
Điều đáng chú ý là, ngoài việc tham khảo các tư liệu chuyên môn, khi viết bài viết này, tác giả cho biết đã sử dụng góc nhìn của chính AI bằng cách đặt câu hỏi với 4 ứng dụng phổ biến là ChatGPT, GPT-4, Sage, Claude+ , chúng đã đưa ra cảnh báo và cho biết quan điểm về các tình huống xấu nhất đối với AI; trong đó một ứng dụng cho rằng: “Điều quan trọng cần lưu ý là những tình huống này không phải là dự đoán, mà là cần phải nhận thức được và nỗ lực để giảm thiểu rủi ro tiềm ẩn”.
Đưa ra các quyết định quan trọng dựa trên thông tin sai lệch
Có những lo ngại AI có thể được sử dụng để ngụy tạo hình ảnh, video, âm thanh hoặc văn bản giả (giả sâu) bằng các công cụ học máy tiên tiến, dẫn đến việc phổ biến hàng loạt thông tin sai lệch trên Internet, điều này sẽ phá hoại tính hoàn chỉnh của thông tin và làm giảm lòng tin của mọi người đối với các nguồn tin và niềm tin vào sự hoàn chỉnh của thể chế dân chủ.
Trong kịch bản ác mộng, sự xuất hiện của deepfakes một ngày nào đó có thể khiến các nhà hoạch định chính sách an ninh quốc gia hành động dựa trên thông tin sai lệch, điều này có thể dẫn đến một cuộc khủng hoảng lớn hoặc tệ hơn là xảy ra chiến tranh.
Chạy đua vũ trang AI
Khi nói đến AI và an ninh quốc gia, tốc độ là trọng điểm, nhưng cũng là vấn đề, vì AI mang lại ưu thế về tốc độ nhanh hơn cho người dùng, quốc gia nào phát triển các ứng dụng quân sự trước tiên sẽ giành được ưu thế chiến lược; nhưng mặt khác, điều này có thể rất nguy hiểm vì tin tặc có thể lợi dụng lỗ hổng nhỏ nhất trong hệ thống.
Trong trường hợp này, sự cấp bách để giành chiến thắng trong cuộc chạy đua vũ trang AI có thể dẫn đến các biện pháp bảo mật không đủ, làm tăng khả năng tạo ra các hệ thống AI với những hậu quả thảm khốc và tiềm tàng ngoài ý muốn.
Ví dụ: các nhà lãnh đạo an ninh quốc gia có thể thử trao quyền chỉ huy và kiểm soát việc ra quyết định cho AI và loại bỏ sự giám sát của con người khỏi các mô hình máy học mà không hiểu đầy đủ để đạt được ưu thế về tốc độ. Trong trường hợp đó, ngay cả khi không được con người trao quyền mà tự động kích hoạt hệ thống phòng thủ tên lửa cũng có thể dẫn đến leo thang ngoài ý muốn và thậm chí có thể là chiến tranh hạt nhân.
Trong một kịch bản khác, bằng cách lợi dụng một số khiếm khuyết hoặc lỗ hổng trong hệ thống AI, các cuộc tấn công mạng có thể được thực hiện nhằm gây thiệt hại cho cơ sở hạ tầng quan trọng ở các nước phát triển, đánh cắp dữ liệu nhạy cảm hoặc lan truyền thông tin sai lệch trong dân chúng với mục đích gây hoang mang và hỗn loạn , thậm chí đưa ra quyết sách sai lệch – nhà sản xuất cung cấp thông tin sai lệch, như đã đề cập ở điểm đầu tiên.
Sự chấm dứt của quyền riêng tư và ý chí tự do
Mỗi thao tác kỹ thuật số chúng ta thực hiện đều tạo ra dữ liệu mới: email, văn bản, tải xuống, mua hàng, bài đăng, ảnh tự chụp, vị trí GPS và bằng cách cấp cho các công ty và chính phủ quyền truy cập không hạn chế những dữ liệu này, chúng ta cung cấp cho họ công cụ giám sát và kiểm soát.
Với việc bổ sung nhận dạng khuôn mặt, sinh trắc học, dữ liệu bộ gen và phân tích dự đoán AI, khi dữ liệu theo dõi và giám sát ngày càng tăng, chúng ta đang bước vào lãnh vực nguy hiểm và chưa biết nhiều, hầu như chẳng biết gì về ảnh hưởng tiềm ẩn.
Sau khi được thu thập và phân tích, sức mạnh của dữ liệu vượt khỏi công năng giám sát. Ngày nay, khi các hệ thống hỗ trợ AI có thể dự đoán các sản phẩm chúng ta sẽ mua, nội dung giải trí chúng ta sẽ xem và các liên kết chúng ta sẽ nhấp vào. Khi các nền tảng đó hiểu rõ chúng ta hơn chính bản thân chúng ta, chúng ta có thể không nhận thấy sự chậm chạp đó cướp đi ý chí tự do của chúng ta và khiến chúng ta bị các thế lực bên ngoài kiểm soát.
Mất kiểm soát đối với AI siêu thông minh
Có lẽ bi quan nhất trong tất cả các kịch bản là siêu trí tuệ vượt qua trí thông minh của con người về mọi mặt; nếu chúng ta không sắp xếp các mục tiêu của AI đồng nhất với mục tiêu của chính mình, sẽ có thể dẫn đến những hậu quả tiêu cực ngoài ý muốn. Điều này có thể xảy ra nếu các hệ thống AI được thiết kế với khả năng tự cải tiến và trở nên thông minh hơn.
Một số chuyên gia cảnh báo rằng AI cuối cùng có thể trở nên tiên tiến đến mức nếu chúng ta không thể kiểm soát nó đúng cách, nó có thể vượt qua con người và đưa ra những quyết định đe dọa sự sống còn của nhân loại, dù là cố ý hay không.
Các hệ thống AI được thiết kế để học hỏi dữ liệu và đưa ra các quyết sách, và khi các hệ thống này trở nên tiên tiến hơn, chúng có thể xây dựng các mục tiêu và giá trị của riêng, những mục tiêu và giá trị này có thể không tương thích với con người. Do đó, chúng có thể đưa ra các quyết định gây hại cho con người, hoặc chúng có thể trở nên độc lập đến mức con người khó hoặc không thể kiểm soát hoặc tắt chúng.
Trong tình huống đáng sợ như vậy, con người có thể không dự đoán hoặc hiểu được hành vi của các hệ thống thông minh này, điều này có thể dẫn đến những hậu quả không lường trước được.
Ví dụ: hệ thống AI nhằm cải thiện lưu lượng giao thông có thể quyết định chuyển hướng tất cả các xe cộ đến một địa điểm, gây ra tình trạng tắc nghẽn và hỗn loạn; hoặc hệ thống AI nhằm tối ưu hóa việc phân bổ tài nguyên có thể quyết định loại bỏ con người như là cách hữu hiệu nhất để đạt được mục tiêu.
Vũ khí sát thương tự chủ
AI có thể được sử dụng để cung cấp động lực cho vũ khí tự chủ gây chết người như máy bay không người lái hoặc tạo ra vũ khí tự chủ có thể quyết định giết ai mà không cần sự can thiệp của con người, điều này có thể dẫn đến các tình huống nguy hiểm khi những vũ khí này vượt khỏi tầm kiểm soát hoặc bị tin tặc sử dụng với mục đích ác ý.
Loại vũ khí này có thể dễ bị sự cố, hacker xâm nhập hoặc bất kỳ hình thức tấn công điện tử nào khác; nếu kẻ tấn công giành được quyền kiểm soát các hệ thống này, chúng có thể sử dụng để gây nguy hại trên diện rộng.
Ví dụ rõ ràng nhất về sự nguy hiểm của vũ khí tự chủ đã xảy ra trong cuộc thử nghiệm gần đây nhất của Lực lượng Không quân Hoa Kỳ vào ngày 2/6/2023, trong một cuộc thử nghiệm mô phỏng, một máy bay không người lái AI đã quyết định giết chết người điều khiển (ảo) của nó, vì nó cho rằng người điều khiển đã ngăn cản nó thực hiện mục tiêu và cản trở nỗ lực hoàn thành nhiệm vụ của nó.
Chính quyền lạm dụng
Hiện nay AI có thể được sử dụng để giám sát quy mô lớn (chẳng hạn như hệ thống nhận dạng khuôn mặt) và cho phép chính phủ hoặc các tổ chức khác giám sát và kiểm soát công dân của họ ở quy mô chưa từng có, có thể dẫn đến mất quyền riêng tư và bị những người kiểm soát quyền lực của các công nghệ giám sát này lạm dụng, cũng có thể sử dụng chúng để vi phạm nhân quyền và các hình thức áp bức khác.
Ví dụ điển hình về điều này là hành động của chính quyền chiếm đóng Israel đối với người Palestine ở thành phố Hebron, nơi họ đã triển khai các camera để theo dõi các chuyển động và khuôn mặt của người Palestine, lưu dữ liệu của họ và nhận dạng họ, AI đưa ra quyết định tại các trạm kiểm soát để cho phép hoặc từ chối họ đi qua,… thậm chí có thể loại bỏ những kẻ tình nghi mà không cần sự can thiệp của con người.
Thay thế làm việc
AI có khả năng tự động hóa nhiều công việc, điều này có thể dẫn đến sự gián đoạn đáng kể trong thị trường lao động và tính chất của nhiều vị trí việc làm.
Xét về lâu dài, mặc dù AI có thể tạo ra các loại công việc và cơ hội mới, nhưng giai đoạn quá độ có thể khó khăn, ảnh hưởng đến hàng triệu người có thể phải vật lộn để tìm việc làm mới và thích nghi với nền kinh tế mới.
Khi các hệ thống AI trở nên tiên tiến và mạnh mẽ hơn, chúng có khả năng thay thế người lao động trong nhiều công việc, điều này có thể dẫn đến tình trạng thất nghiệp lan rộng và bất ổn kinh tế.
Làm thế nào để giảm thiểu hoặc ngăn ngừa rủi ro của AI?
Để giảm thiểu những rủi ro này, các nhà nghiên cứu và hoạch định chính sách đang phát triển các phương pháp an toàn đáng tin cậy và bảo mật để thiết kế và triển khai các hệ thống AI, bao gồm thiết lập nguyên tắc đạo đức phát triển AI, đảm bảo tính minh bạch và trách nhiệm đối với việc ra quyết sách của AI và thiết lập các biện pháp bảo đảm để ngăn chặn những hậu quả không mong muốn.
Phát triển các hệ thống AI minh bạch và có thể giải thích được. AI có thể giải thích là nói đến khả năng của một hệ thống AI đưa ra khả năng giải thích rõ ràng và dễ hiểu về quy trình ra quyết định của nó, giúp tăng thêm tính minh bạch và trách nhiệm giải trình, đồng thời cung cấp thông tin chi tiết về cách hệ thống AI đưa ra quyết sách.
Phát triển hệ thống AI phù hợp với quan niệm giá trị của con người. Điều này bao gồm việc thiết kế các hệ thống AI được lập trình rõ ràng để ưu tiên sự an toàn và sức khỏe của con người và tránh các hành động gây hại cho con người, điều này có thể đạt được bằng cách kết hợp các cân nhắc về đạo đức vào thiết kế và phát triển các hệ thống AI.
Phát triển phương pháp điều khiển và quản lý hệ thống AI. Ví dụ: các nhà nghiên cứu đang khám phá các cơ chế cho phép con người can thiệp vào quá trình ra quyết định của AI hoặc cách tắt hệ thống AI nếu chúng bắt đầu hành xử bất ngờ hoặc ác ý.
Hợp tác giữa các ngành để giải quyết rủi ro AI. Điều này liên quan đến việc tập hợp các chuyên gia từ các lĩnh vực như khoa học máy tính, công nghệ, đạo đức, pháp luật và khoa học xã hội để cùng nhau phát triển các giải pháp đối phó những thách thức phức tạp do AI gây ra. Thông qua hợp tác, các nhà nghiên cứu và người ra quyết sách có thể hiểu rõ hơn về nguy cơ liên quan đến AI, đề ra các chiến lược hiệu quả để quản lý những nguy cơ này.
Theo Al Jazeera