|
Ảnh: The Washington Post |
Người đàn ông gọi Ruth Card có giọng nói giống cháu trai Brandon của bà. Vì vậy, khi đầu dây bên kia nói rằng anh ta đang ở trong tù, không có ví hay điện thoại di động và cần tiền để được tại ngoại, Card đã cố gắng làm mọi thứ để giúp đỡ cháu trai.
“Đó chắc chắn là cảm giác… sợ hãi,” bà nói. “Rằng chúng ta phải giúp cháu trai ngay bây giờ”.
Card, 73 tuổi, và chồng bà, Greg Grace, 75 tuổi, lao đến ngân hàng ở Regina, Saskatchewan và rút 3.000 Đô la Canada (2.207 USD), mức tối đa hàng ngày. Họ vội vã đến chi nhánh thứ hai để kiếm thêm tiền. Nhưng giám đốc ngân hàng đã kéo họ vào văn phòng của anh ta và tiết lộ: Một khách hàng khác đã nhận được cuộc gọi tương tự và cho biết giọng nói giống đến kỳ lạ trong điện thoại đã bị giả mạo, Card nhớ lại nhân viên ngân hàng nói. Người đàn ông trên điện thoại có lẽ không phải là cháu trai của họ.
Đó là khi họ nhận ra rằng mình đã bị lừa.
“Chúng tôi như bị hút vào”, Card chia sẻ trong một cuộc phỏng vấn với The Washington Post. “Chúng tôi cứ ngỡ rằng mình đang nói chuyện với Brandon.”
Công nghệ đang giúp những kẻ xấu bắt chước giọng nói dễ dàng hơn, thuyết phục nạn nhân, thường là người già, rằng những người thân yêu của họ đang gặp nạn. Theo dữ liệu từ Ủy ban Thương mại Liên bang, vào năm 2022, mạo danh người thân là trò lừa đảo phổ biến thứ hai ở Mỹ, với hơn 36.000 báo cáo. Các quan chức FTC cho biết hơn 5.100 sự cố đã xảy ra qua điện thoại, gây thiệt hại hơn 11 triệu USD.
Sự tiến bộ của AI thời gian qua đã giúp nhiều lĩnh vực phát triển, nhưng cũng là công cụ để kẻ xấu khai thác. Chỉ bằng một mẫu âm thanh trong một vài câu nói thu thập được, kẻ gian có thể dùng trí tuệ nhân tạo chuyển thành bản sao giọng nói của một người. Công cụ sau đó "nói" bất cứ thứ gì theo yêu cầu và trở thành phương tiện lừa đảo.
Giới chuyên gia đánh giá, công cụ AI giả giọng nói đang tràn lan, nhưng các cơ quan quản lý vẫn loay hoay kiểm soát. Trong khi đó, hầu hết nạn nhân đều khó xác định thủ phạm vì kẻ lừa đảo hoạt động trên khắp thế giới. Các công ty tạo ra AI cũng chưa phải chịu trách nhiệm về việc chúng bị kẻ khác lạm dụng.
"Thật đáng sợ. Mọi thứ tạo thành cơn bão, đưa nạn nhân lạc vào sự hỗn loạn", giáo sư Hany Farid tại Đại học California nhận xét. "Kẻ gian sẽ buộc nạn nhân phải phản ứng nhanh, khiến họ không đủ bình tĩnh để xử lý vấn đề, đặc biệt là khi nghe tin người thân gặp nguy hiểm".
Tuy nhiên, công nghệ giọng nói AI đang làm cho những trò lừa đảo này trở nên thuyết phục hơn. Nạn nhân thường phản ứng một cách hoảng loạn khi nghe tin những người thân yêu gặp nguy hiểm.
Đây là những tác động xấu của sự gia tăng gần đây về trí tuệ nhân tạo tổng quát, hỗ trợ cho phần mềm tạo văn bản, hình ảnh hoặc âm thanh dựa trên dữ liệu mà nó được cung cấp. Những tiến bộ về toán học và sức mạnh tính toán đã cải thiện cơ chế đào tạo cho phần mềm như vậy, thúc đẩy một nhóm công ty phát hành chatbot, trình tạo hình ảnh và trình tạo giọng nói giống như thật một cách đáng kinh ngạc
Farid cho biết, phần mềm tạo giọng nói AI phân tích những yếu tố khiến giọng nói của một người trở nên độc đáo — bao gồm tuổi tác, giới tính và giọng nói — đồng thời tìm kiếm cơ sở dữ liệu khổng lồ về giọng nói để tìm những giọng nói tương tự và dự đoán các mẫu.
Sau đó, AI có thể tạo lại cao độ, âm vực và âm thanh riêng lẻ của giọng nói để tạo ra hiệu ứng tổng thể. Công nghệ này yêu cầu một mẫu âm thanh ngắn, được lấy từ những nơi như YouTube, podcast, quảng cáo, video TikTok, Instagram hoặc Facebook, Farid cho biết.
“Hai năm trước, thậm chí một năm trước, bạn cần rất nhiều âm thanh để sao chép giọng nói của một người”, Farid nói. “Bây giờ… nếu bạn sử dụng Facebook… hoặc nếu bạn đã đăng tải một video dài 30 giây có giọng nói của bạn lên TikTok, mọi người có thể sao chép giọng nói của bạn”.
Các công ty như ElevenLabs, một công ty khởi nghiệp tổng hợp giọng nói bằng AI được thành lập vào năm 2022, chuyển đổi một mẫu giọng nói ngắn thành giọng nói được tạo tổng hợp thông qua một công cụ chuyển văn bản thành giọng nói. Theo trang web, phần mềm ElevenLabs có nhiều tùy chọn miễn phí hoặc có giá từ 5 đến 330 USD mỗi tháng, mức giá cao hơn cho phép người dùng tạo ra nhiều âm thanh hơn.
ElevenLabs đã nhận nhiều lời chỉ trích về sản phẩm của họ, thứ đã được sử dụng để tái tạo giọng nói của những người nổi tiếng và nói những điều họ chưa bao giờ làm, chẳng hạn như Emma Watson đọc sai các đoạn trong “Mein Kampf”. ElevenLabs đã không trả lời yêu cầu bình luận, nhưng trong một chủ đề Twitter, công ty cho biết họ đang kết hợp các biện pháp bảo vệ để ngăn chặn việc lạm dụng, bao gồm cấm người dùng miễn phí tạo giọng nói tùy chỉnh.
Nhưng những biện pháp bảo vệ như vậy là quá muộn đối với những nạn nhân như Benjamin Perkin, người có cha mẹ già đã mất hàng nghìn USD vì một vụ lừa đảo bằng giọng nói.
Cơn ác mộng của anh bắt đầu khi cha mẹ anh nhận được điện thoại từ một luật sư, nói rằng con trai họ đã đâm chết một nhà ngoại giao Hoa Kỳ trong một vụ tai nạn xe hơi. Perkin đang ở trong tù và cần tiền cho các chi phí pháp lý.
Vài giờ sau, luật sư gọi lại cho cha mẹ của Perkin, nói rằng con trai họ cần 21.000 USD trước ngày ra tòa vào cuối ngày hôm đó.
Cha mẹ anh nói họ có cảm giác cuộc gọi "có gì đó bất thường", nhưng vẫn làm theo vì nghĩ đã nói chuyện với con trai. Tối hôm đó, khi Perkin gọi điện, tất cả mới vỡ lẽ.
Giọng nói nghe “đủ giống để bố mẹ tôi thực sự tin rằng họ đã nói chuyện với tôi”, anh chia sẻ. Trong tình trạng hoảng loạn, họ vội vã đến một số ngân hàng để lấy tiền mặt và gửi tiền cho luật sư.
Được biết, Perkin đã đăng các video trên YouTube nói về sở thích trượt tuyết của mình. Perkin cho biết gia đình đã trình báo cảnh sát với chính quyền liên bang của Canada, nhưng điều đó đã không mang lại kết quả gì.
“Tiền đã mất” anh nói. “Không có bảo hiểm. Không thể lấy lại được. Nó đã mất rồi".
Will Maxson, trợ lý giám đốc bộ phận thực hành tiếp thị của FTC, cho biết việc theo dõi những kẻ lừa đảo giả mạo giọng nói có thể “đặc biệt khó khăn” vì chúng có thể sử dụng điện thoại ở bất kỳ đâu trên thế giới, khiến cho việc xác định cơ quan nào có thẩm quyền đối với vụ lừa đảo trở nên khó khăn.
Maxson kêu gọi cảnh giác liên tục. Nếu một người thân nói với bạn rằng họ cần tiền, hãy tạm dừng cuộc gọi đó và thử gọi lại cho thành viên gia đình của bạn. Nếu một cuộc gọi đáng ngờ đến từ số của một thành viên trong gia đình, cuộc gọi đó cũng có thể bị giả mạo.
Eva Velasquez, giám đốc điều hành của Trung tâm thông tin tội phạm, cho biết cơ quan thực thi pháp luật rất khó truy tìm những tên trộm nhân bản giọng nói. Velasquez, người đã có 21 năm làm việc tại Văn phòng Biện lý Quận San Diego để điều tra hành vi này, các sở cảnh sát có thể không có đủ tiền và nhân viên để tài trợ.
Cô nói, các bộ phận lớn hơn phải phân bổ nguồn lực cho các trường hợp có thể được giải quyết. Nạn nhân của các vụ lừa đảo bằng giọng nói có thể không có nhiều thông tin để cung cấp cho cảnh sát điều tra, khiến các quan chức khó xử lý, đặc biệt là đối với những vụ lừa đảo quy mô nhỏ.
Farid cho biết các tòa án nên quy trách nhiệm cho các công ty AI nếu sản phẩm họ có nhiều tác động xấu. Thẩm phán Tòa án Tối cao Neil M. Gorsuch, cho biết vào tháng 2 rằng các biện pháp bảo vệ pháp lý bảo vệ mạng xã hội khỏi các vụ kiện có thể không được áp dụng cho các nội dung do AI tạo ra.
Theo The Washington Post