Thảm họa khi tin tặc tấn công trí thông minh nhân tạo

Hãy tưởng tượng bạn đang sống trong năm 2022. Bạn đang ngồi trong chiếc xe lái tự động trên con đường quen thuộc trong thành phố. Chiếc xe tiến gần đến một biển báo dừng lại mà nó đã đi qua hàng trăm lần - thế nhưng lần này nó lại vượt thẳng qua.
Ảnh minh họa

Đối với bạn, biển báo này giống hệt như những lần khác Thế nhưng đối với chiếc xe, nó hoàn toàn khác. Trước đó chỉ vài phút, một tấm giấy dán nhỏ đã được gắn lên trên biển hiệu mà cả bạn và chiếc xe đều không hề hay biết. Nó đủ nhỏ để mắt thường không nhìn thấy, nhưng đủ lớn để đánh lừa công nghệ nhận dạng.

Nói cách khác, nó đủ để khiến máy tính nghĩ rằng biển báo hiệu dừng lại không phải là biển báo hiệu dừng lại.

Nhiều nghiên cứu đang chỉ ra rằng trí thông minh nhân tạo có thể bị đánh lừa bằng những cách đơn giản như vậy, khi chúng nhìn thấy những điều mà mắt thường con người không nhận biết được.

Trong lúc những công nghệ giúp máy tính tự học và nâng cao khả năng nhận biết đang ngày càng được sử dụng nhiều hơn trong hệ thống giao thông, tài chính và y tế của chúng ta, các nhà khoa học máy tính đang hy vọng sẽ có thể tìm ra cách bảo vệ chúng tốt hơn trước những vụ tấn công trước khi những vụ tấn công này xảy ra trên thực tế.

"Mối lo ngại này ngày càng xuất hiện nhiều hơn trong cộng đồng trí thông minh nhân tạo và máy tính học, nhất là khi những thuật toán này đang được sử dụng ngày một nhiều hơn," Daniel Lowd, phó giáo sư về khoa học máy tính và thông tin tại Đại học Oregon, nói.

"Nếu các thư rác vượt qua được tường lửa hoặc một vài email bị chặn, hậu quả không phải là quá lớn. Thế nhưng nếu bạn phải dựa vào hệ thống nhận biết trong xe tự động lái để biết mình đang đi về đâu và tránh tai nạn, thì lại to chuyện hơn rất nhiều."

Việc máy tính bị hỏng hóc hoặc bị xâm nhập có thể tác động rất lớn đến cách mà những thuật toán máy tính học 'nhìn nhận' thế giới. Khi đó, đối với nó, một con gấu trúc có thể trông giống như một con vượn, hoặc một chiếc xe buýt trường học có thể trông giống như một con đà điểu.

Trong một thử nghiệm, các nhà nghiên cứu từ Pháp và Switzerland đã chỉ ra rằng những sự phá rối như vậy có thể làm cho máy tính lẫn lộn về mặt nhận biết.

Vì sao lại như vậy? Hãy liên tưởng đến việc những đứa trẻ học cách nhận biết các con số. Chúng sẽ nhìn từng con số và tìm cách ghi nhớ những điểm chung: Số 1 cao và gầy, số 6 và 9 có 1 vòng tròn trong khi số 8 có hai vòng tròn. Một khi đã nhìn thấy đủ các ví dụ, chúng có thể nhanh chóng nhận biết các số mới như 4, 8 hoặc 3 - ngay cả khi những con số này được viết dưới những phong cách khác nhau.

Các thuật toán máy học cũng nhận biết thế giới thông qua một quy trình tương tự. Các nhà khoa học nạp vào máy tính hàng trăm hoặc hàng nghìn ví dụ được phân loại cụ thể về những gì họ muốn máy tính nhận biết. Máy tính sau đó lướt qua các dữ liệu được nạp và trong lúc nó phân loại đâu là con số, đâu là không - nó bắt đầu ghi nhớ những đặc điểm của đáp án đúng. Sau đó, nó bắt đầu có khả năng nhìn vào một bức hình và khẳng định rằng 'đây là một số 5' với độ chính xác cao.

Trí tuệ nhân tạo đang ngày càng ảnh hưởng nhiều tới đời sống con người, từ xe hơi tự lái cho tới các thiết bị gia dụng tự hoạt động trong nhà. ảnh GETTY IMAGES

Bằng cách này, cả trẻ em lẫn máy tính có thể học cách nhận biết một số lượng lớn các vật thể, từ số cho tới thú nuôi cho tới khuôn mặt con người.

Thế nhưng, không giống như một đứa trẻ, máy tính không chú ý tới những chi tiết nhỏ như cái tai đầy lông của một con mèo hoặc những góc cạnh của số 4. Nó không nhìn vào toàn bức tranh.

Thay vào đó, nó nhìn vào từng ảnh điểm của các bức tranh và tìm cách phân biệt từng vật thể một cách nhanh nhất. Nếu phần lớn số 1 có cách ảnh điểm màu đen ở một số vùng và một số ảnh điểm màu trắng ở các vùng khác, máy tính sẽ đưa ra quyết định chỉ sau khi đã kiểm tra một số ít những ảnh điểm này.

Hãy thử nhìn lại câu chuyện biển báo dừng lại. Chỉ cần điều chỉnh các ảnh điểm trên hình kí hiệu, máy tính sẽ tưởng rằng tấm biển này là một thứ khác.

Một nghiên cứu tương tự từ Phòng Thí Nghiệm Trí Thông minh Nhân tạo Phát triển tại Đại học Wyoming và Đại học Cornell đã tạo ra một loạt các ảo ảnh cho trí thông minh nhân tạo.

Những hình ảnh trừu tưởng này rất khó hiểu đối với con người, thế nhưng chúng ngay lập tức được máy tính nhận biết là những con rắn hay các khẩu súng trường. Điều này cho thấy cách mà trí thông minh nhân tạo có thể nhìn vào một cái gì đó và phán đoán ra một thứ khác xa thực tế.

Đây là điểm yếu chung của tất cả các thuật toán máy học. "Tất cả các thuật toán đều có một điểm yếu," Yevgeniy Vorobeychik, phó giáo sư về khoa học máy tính tại Đại học Vanderbilt, nói.

"Chúng ta sống trong một thế giới phức tạp, nhiều khía cạnh, và các thuật toán chỉ tập trung vào một phần rất nhỏ của thế giới đó."

Voyobeychik 'rất tự tin' rằng nếu những điểm yếu này tồn tại, một ai đó sẽ tìm cách lợi dụng chúng. Điều này đã bắt đầu xảy ra.

Ví dụ như các thuật toán nhằm sàng lọc các email không rõ nguồn gốc. Những kẻ xấu có thể vượt qua tường lửa bằng cách chỉnh sửa cách viết của một số từ, ví dụ như Vi@gra thay vì Viagra hoặc tìm cách tung hoả mù để che giấu các từ thường xuyên xuất hiện trong thư rác, ví dụ như 'nhận giải', 'mobile' hoặc 'thắng giải'.

 Ảnh GETTY IMAGES

Điều gì sẽ giúp những kẻ lừa đảo này thành công? Trường hợp chiếc xe tự lái bị đánh lừa trước biển báo dừng lại là một trong những viễn cảnh phổ biến mà các chuyên gia trong ngành đã nghĩ đến. Những dữ liệu gây nhiễu có thể giúp các trang web khiêu dâm lừa được tường lửa. Những kẻ lừa đảo khác có thể tìm cách nâng giá trị của một tờ cheque hoặc chỉnh sửa mã của các phần mềm độc hại nhằm giúp chúng vượt qua hệ thống an ninh máy tính.

Trên lý thuyết, những kẻ xâm nhập chỉ có thể tạo dữ liệu gây nhiễu nếu họ có trong tay thuật toán của chiếc máy tính mà họ muốn qua mặt. Tuy nhiên trên thực tế họ chỉ cần tấn công bằng một số lượng lớn các phiên bản khác nhau của email hoặc hình ảnh cho đến khi một tập tin nào đó vượt qua được tường lửa.

"Các hệ thống dùng thuật toán máy học đã bị lợi dụng kể từ khi chúng ra đời," Patrick McDaniel, giáo sư khoa học máy tính tại Đại học Bang Pennsylvania, nói.

"Chúng ta không biết là những mánh khoé này có đang được sử dụng hay không".

Thế nhưng phương pháp tạo dữ liệu gây nhiễu không chỉ có lợi cho những kẻ xấu. Chúng có thể được sử dụng để giúp đỡ những người muốn tránh bị theo dõi.

"Nếu bạn là một nhà hoạt động chính trị tại một quốc gia độc tài và bạn muốn tiến hành các hoạt động của mình mà không bị theo dõi, việc tránh được các công nghệ theo dõi tự động sẽ rất hữu ích," Lowd nói.

Trong một dự án, được công bố vào tháng 10, các nhà nghiên cứu tại Đại học Carnegie Mellon đã chế tạo một cặp kính có khả năng đánh lừa hệ thống nhận dạng mặt - khiến cho máy tính tưởng nhầm nữ diễn viên Reese Witherspoon là Russel Crowe. Nghe thì có vẻ buồn cười, nhưng những công nghệ như vậy có thể sẽ trở nên rất hữu ích cho những ai muốn né tránh sự theo dõi của thế lực cầm quyền.

Vậy làm sao để có một thuật toán không dễ bị lừa? "Cách duy nhất là có một thuật toán luôn luôn đúng," Lowd nói. Ngay cả khi chúng ta có thể tạo ra trí thông minh nhân tạo có khả năng đánh bại con người, thế giới này vẫn luôn tồn tại những trường hợp không có đáp án rõ ràng.

Các thuật toán máy học thường được đánh giá bởi độ chính xác. Một chương trình có khả năng nhận biết đúng 99% rõ ràng là tốt hơn chương trình chỉ đánh giá đúng 60%. Tuy nhiên các chuyên gia giờ đây cho rằng các thuật toán cần được đánh giá dựa trên khả năng kháng cự các vụ tấn công.

Một giải pháp khác đó là giả lập các vụ tấn công và chỉ cho thuật toán máy tính học thấy. Điều này có thể giúp hệ thống trở nên ngày càng vững vàng hơn. Tất nhiên là các vụ tấn công được giả lập này cũng cần giuống với các vụ tấn công có thể xảy ra trong thế giới thật.

McDianiel cho rằng chúng ta nên cho phép con người can thiệp vào thuật toán trong những trường hợp cần thiết. Một số 'trợ lý thông minh' như M của Facebook, có con người đứng đằng sau để kiểm tra và tinh chỉnh các câu trả lời, trong khi một số chuyên gia khác cho rằng sự kiểm tra của con người cũng đóng vai trò quan trọng trong các ứng dụng nhạy cảm khác, ví dụ như quyết định của toà án.

"Các hệ thống máy học là công cụ để lập luận. Chúng ta cần rất tỉnh táo trước những gì chúng ta cho chúng biết, cũng như những gì chúng cho ta biết", ông nói. "Chúng ta không nên xem chúng là những nhà tiên tri sự thật hoàn hảo"

Theo  BBC
http://www.bbc.com/vietnamese/vert-fut-39967412