Trao đổi với VietTimes, TS Đặng Minh Tuấn, Phó chủ tịch SVP Tập đoàn công nghệ CMC, Viện trưởng Viện Nghiên cứu ứng dụng công Nghệ CMC (CMC ATI), nêu rõ quan điểm về việc xây dựng Luật AI nhằm bảo đảm an toàn, minh bạch, xác định trách nhiệm, thúc đẩy đổi mới sáng tạo và kinh tế số Việt Nam.
Nguy cơ về khoảng trống pháp lý
- Quốc hội đang xem xét thông qua Luật Trí tuệ nhân tạo. Theo ông, vì sao chúng ta cần một đạo luật riêng ngay lúc này? Và đâu là những vấn đề cấp bách mà luật phải giải quyết?
- Tôi cho rằng thời điểm này không chỉ phù hợp mà còn cấp thiết để Việt Nam ban hành một đạo luật riêng về AI. Công nghệ AI đã đi rất sâu vào hoạt động kinh tế - xã hội, từ khám chữa bệnh, giáo dục, giao thông đến các dịch vụ tài chính. Trong khi đó, khung pháp lý hiện nay mới xử lý được những phần rất ngoại vi, chưa đủ để quản lý các rủi ro đặc thù do các mô hình AI thế hệ mới mang lại. Điều này cũng khiến môi trường đổi mới sáng tạo chưa thực sự an toàn và bền vững.
Vấn đề phải làm ngay là xác định trách nhiệm pháp lý của các chủ thể tham gia vào toàn bộ vòng đời của một hệ thống AI: ai phát triển, ai cung cấp, ai vận hành. Ở những lĩnh vực nhạy cảm như y tế, tài chính hay dịch vụ công, một quyết định được tạo ra bởi AI có thể ảnh hưởng trực tiếp đến tài sản, sức khỏe, thậm chí tính mạng của người dân. Vì vậy, pháp luật phải trả lời rất rõ ràng câu hỏi ai chịu trách nhiệm khi hệ thống xảy ra sai sót, để tránh tình trạng đùn đẩy hoặc bỏ trống trách nhiệm như hiện nay.
- Trong quá trình xây dựng Luật Trí tuệ nhân tạo, nhiều ý kiến lo ngại về rủi ro dữ liệu và tính minh bạch của các hệ thống AI. Ông cho rằng đâu là những yêu cầu bắt buộc cần đặt ra khi làm luật?
- Một trong những điểm nóng nhất khi bàn về quản trị AI chính là dữ liệu. AI hoạt động hoàn toàn dựa vào dữ liệu lớn. Nếu dữ liệu bị thu thập thiếu chuẩn mực, bị quản lý lỏng lẻo hoặc chia sẻ không đúng cách, hệ quả có thể rất nghiêm trọng: kết quả sai lệch, phân biệt đối xử, xâm phạm quyền riêng tư của cá nhân, tổ chức. Vì vậy, luật cần đặt ra các tiêu chí rõ ràng về chất lượng dữ liệu, quy định chặt chẽ về bảo vệ dữ liệu cá nhân và có cơ chế giám sát những bộ dữ liệu được dùng để huấn luyện AI.
Không chỉ dữ liệu, minh bạch và khả năng giải trình cũng là nền tảng để bảo đảm AI vận hành an toàn. Nếu thiếu các tiêu chuẩn minh bạch, AI rất dễ gây rủi ro, thậm chí đe dọa tính mạng nếu ứng dụng cho robot. Đây là lý do nhiều quốc gia đang thúc đẩy các yêu cầu về giải thích, kiểm định và giám sát AI.
Ở giai đoạn đầu, luật không nên ôm đồm mọi công nghệ mà nên xoay quanh 3 nguyên tắc then chốt: an toàn, trách nhiệm giải trình và cơ chế kiểm định. Công nghệ AI thay đổi theo từng tháng, nên luật phải đủ linh hoạt để không kìm hãm đổi mới, nhưng vẫn đủ chặt chẽ để bảo vệ người dân và doanh nghiệp trước những rủi ro khó lường. Nếu làm được điều này, chúng ta có thể tạo ra một môi trường phát triển AI an toàn, công bằng và bền vững.
Định hình luật chơi
- Nhiều ý kiến cho rằng Việt Nam chỉ nên ban hành quy tắc đạo đức, sandbox thử nghiệm và bổ sung vào các luật hiện hành thay vì xây dựng một Luật AI riêng. Một số quan điểm khác lại lo ngại rằng việc có thêm Luật AI có thể gây chồng chéo với các luật về dữ liệu, an ninh mạng hay công nghiệp công nghệ số. Quan điểm của ông như thế nào?
- Tôi cho rằng lo ngại về sự chồng chéo giữa Luật AI và các luật hiện hành là có cơ sở, nhưng không nên vì vậy mà chậm trễ. Thực tiễn phát triển AI đang diễn ra quá nhanh, nếu không sớm tạo ra một tầng pháp lý mới, chúng ta sẽ mãi chạy đuổi theo công nghệ, vừa bị động vừa khó kiểm soát rủi ro.
Các luật hiện tại như Luật An ninh mạng, Luật Bảo vệ dữ liệu cá nhân, Luật Công nghiệp công nghệ số,… chỉ điều chỉnh từng phần của hệ sinh thái AI là dữ liệu, an toàn thông tin hay hạ tầng số. Trong khi đó, AI đặt ra những câu chuyện hoàn toàn mới như trách nhiệm của thuật toán, phân loại rủi ro, kiểm định mô hình, minh bạch trong quá trình ra quyết định tự động và quyền được giải thích của người dân. Những yếu tố cốt lõi này hiện chưa được luật nào bao quát đầy đủ.
Nếu chỉ dựa vào quy tắc đạo đức, cơ chế sandbox hay các hướng dẫn trong từng luật cũ, hệ thống pháp lý rất dễ trở nên chắp vá, thiếu nhất quán. Điều này không chỉ khiến doanh nghiệp khó dự đoán và phản ứng trước các rủi ro pháp lý, mà còn ảnh hưởng tới niềm tin của cơ quan quản lý và người dân khi họ phải sử dụng các hệ thống AI trong đời sống.
Tôi cho rằng hướng đi phù hợp là xây dựng Luật AI như một luật khung. Luật này chỉ nên đưa ra nguyên tắc lớn, vai trò của từng chủ thể, cơ chế phối hợp và giám sát. Còn các yêu cầu kỹ thuật hay quy định đặc thù trong từng lĩnh vực như y tế, tài chính hay giao thông vẫn để luật chuyên ngành điều chỉnh. Cách tiếp cận như vậy vừa tránh chồng chéo, vừa bảo đảm sự linh hoạt cần thiết.
Bên cạnh luật khung, Việt Nam vẫn cần bộ quy tắc đạo đức và cơ chế sandbox vận hành song song. Đây là bộ ba công cụ bổ trợ cho nhau: luật để định hình khung vận hành, sandbox để thử nghiệm chính sách, và quy tắc đạo đức để định hướng thực hành tốt. Khi kết hợp hài hòa, chúng có thể tạo ra hệ sinh thái pháp lý vừa mềm dẻo, vừa đủ mạnh để hỗ trợ đổi mới sáng tạo và kiểm soát rủi ro của AI.
- Nếu chờ đến khi hệ sinh thái AI phát triển hơn nữa mới xây dựng luật, thì Việt Nam đối mặt với những nguy cơ gì, thưa ông?
- Việt Nam có thể rơi vào thế chậm chân nếu chờ hệ sinh thái AI phát triển đầy đủ rồi mới ban hành luật. Công nghệ luôn tiến nhanh hơn thể chế, và cái giá của việc điều chỉnh muộn thường rất đắt: rủi ro đã xảy ra, doanh nghiệp mất phương hướng, còn cơ quan quản lý thì bị động trong xử lý sự cố.
Trong khi đó, các nền kinh tế dẫn đầu như EU, Mỹ, Singapore đã chủ động đặt ra chuẩn mực quản trị AI, buộc những quốc gia đi sau phải “nhập khẩu luật chơi” thay vì tự thiết kế theo nhu cầu và điều kiện của mình.
Nếu không có khung pháp lý sớm, doanh nghiệp khó xác định ranh giới pháp lý để đầu tư, còn môi trường kinh doanh mất tính cạnh tranh vì không có hệ tiêu chuẩn chung để bảo vệ người dùng và nhà đầu tư.
Vấn đề trọng tâm hiện nay không phải xây dựng luật sớm hay muộn, mà là xây dựng luật theo cấu trúc khung, linh hoạt cập nhật theo nhịp phát triển công nghệ. Cách tiếp cận này giúp Việt Nam giữ tốc độ ngang khu vực và tránh tình trạng luật bị lạc hậu ngay từ lúc ban hành.
Có cần cơ quan chuyên trách về AI?
- Có nhiều ý kiến cho rằng nên giao việc kiểm định AI cho các bộ ngành để tận dụng nguồn lực, trong khi một số người lại đề xuất cần có một cơ quan độc lập chuyên trách. Quan điểm của ông như thế nào?
- Tôi cho rằng việc thành lập một cơ quan kiểm định và chứng nhận AI độc lập là điều cần thiết để quản lý AI một cách bài bản. Rủi ro từ AI vốn mang tính liên ngành: Kỹ thuật, mô hình, an toàn thuật toán, bảo mật dữ liệu, quyền riêng tư, tác động kinh tế - xã hội… Nếu giao toàn bộ trách nhiệm này cho một bộ ngành hành chính, rất dễ xảy ra xung đột lợi ích hoặc tình trạng mỗi nơi làm một kiểu, dẫn tới thiếu chuẩn hóa.
Nhìn ra thế giới, nhiều nước đã đi theo mô hình tách bạch giữa cơ quan làm chính sách và cơ quan thẩm định kỹ thuật. Cách làm này giúp đảm bảo tính độc lập, minh bạch và nâng cao niềm tin của doanh nghiệp cũng như người dân. Một cơ quan chuyên trách sẽ có đội ngũ gồm chuyên gia kỹ thuật, pháp lý và đạo đức, đủ năng lực đánh giá rủi ro mô hình, kiểm định an toàn và đề xuất tiêu chuẩn kỹ thuật thống nhất. Đây là nền tảng quan trọng để AI được triển khai an toàn, đồng bộ và có trách nhiệm.
- Để một cơ quan kiểm định và chứng nhận AI hoạt động hiệu quả, theo ông thành phần nhân sự cốt lõi cần được thiết kế như thế nào?
- Nhân sự cốt lõi của đơn vị này nên được thiết kế theo cấu trúc đa ngành. Thứ nhất là nhóm chuyên gia kỹ thuật chuyên sâu vào mô hình AI, an toàn thuật toán và bảo mật hệ thống. Thứ hai là nhóm chuyên gia pháp lý - đạo đức để xử lý các vấn đề liên quan đến quyền riêng tư, phân biệt đối xử, quyền người tiêu dùng. Và thứ ba là nhóm phân tích tác động kinh tế - xã hội, nhằm đánh giá rủi ro ở cấp độ hệ thống chứ không chỉ ở phạm vi sản phẩm riêng lẻ.
Hoạt động của cơ quan này cũng cần tuân theo nguyên tắc “dựa trên rủi ro”. Không phải mọi hệ thống AI đều cần kiểm định, mà chỉ tập trung vào các ứng dụng có tác động cao như y tế, tài chính, dịch vụ công hay các hạ tầng số lõi. Điều này vừa tiết kiệm nguồn lực, vừa đảm bảo sự can thiệp được đặt đúng chỗ, đúng mức.
Cùng với đó, cơ quan độc lập này cần được trao quyền ban hành hoặc đề xuất tiêu chuẩn kỹ thuật; yêu cầu báo cáo sự cố; phối hợp với các bộ ngành; và công bố công khai kết quả chứng nhận. Khi những thông tin này được minh bạch, người dân, doanh nghiệp và cả nhà đầu tư sẽ có niềm tin lớn hơn vào những hệ thống AI hoạt động trong môi trường pháp lý của Việt Nam.
- Theo ông, để Luật AI khi ban hành có thể đi vào cuộc sống, cần những điều kiện gì?
- Trước hết cần một khung quy định rõ ràng, đặc biệt là các nguyên tắc về trách nhiệm, quy trình kiểm định và tiêu chí phân loại rủi ro. Khi các nguyên tắc này đã được xác định ngay trong luật, cơ quan thực thi sẽ không tự diễn giải hay vận dụng theo cách chủ quan, từ đó bảo đảm tính thống nhất và minh bạch trong áp dụng.
Bên cạnh đó, hạ tầng dữ liệu và hệ thống tiêu chuẩn kỹ thuật phải được xây dựng thống nhất trên phạm vi quốc gia. Nếu mỗi ngành hay mỗi địa phương áp dụng một chuẩn khác nhau thì rất khó triển khai luật một cách đồng đều, và cũng làm tăng chi phí tuân thủ cho doanh nghiệp.
Đội ngũ thực thi đóng vai trò quyết định. Họ cần được đào tạo theo hướng liên ngành, kết hợp hiểu biết về kỹ thuật AI, pháp lý và đạo đức. Chỉ khi hiểu đúng cơ chế vận hành của mô hình AI và các loại rủi ro gắn với chúng, cơ quan thực thi mới có thể đánh giá chính xác tác động và xử lý các tình huống phát sinh.
Với doanh nghiệp, điều quan trọng là họ phải được tham gia từ sớm. Cần có cơ chế hướng dẫn, lộ trình tuân thủ theo giai đoạn và cả sandbox để thử nghiệm. Cách làm này giúp doanh nghiệp giảm chi phí chuyển đổi và không bị sốc khi luật có hiệu lực, đồng thời tạo điều kiện cho đổi mới sáng tạo.
Cuối cùng, luật phải có sẵn cơ chế cập nhật định kỳ. AI thay đổi rất nhanh và nếu chúng ta đóng khung quy định trong nhiều năm thì chỉ sau một thời gian ngắn luật sẽ không còn phù hợp. Một cơ chế giám sát tiến bộ công nghệ và điều chỉnh linh hoạt sẽ giúp luật vừa ổn định, vừa theo kịp sự phát triển của AI.
Trở thành bệ phóng thay vì là rào cản
- Ông kỳ vọng luật này sẽ góp phần như thế nào trong việc hình thành một nền kinh tế AI tại Việt NAm trong 5-10 năm tới?
- Một đạo luật riêng về AI được xây dựng tốt sẽ đóng vai trò như đường ray cho nền kinh tế AI. Luật giúp doanh nghiệp biết rõ đâu là vùng được khuyến khích phát triển, đâu là các khu vực rủi ro cao cần kiểm soát chặt chẽ, thay vì phải vừa làm vừa đoán xem cơ quan quản lý sẽ phản ứng ra sao. Khi nguyên tắc đã rõ ràng, doanh nghiệp yên tâm đầu tư dài hạn hơn và hệ sinh thái cũng phát triển ổn định hơn.
Bên cạnh đó, luật còn có thể mở ra những thị trường hoàn toàn mới như dịch vụ kiểm định mô hình, hạ tầng dữ liệu dùng chung, trung tâm điện toán hiệu năng cao hay các loại sản phẩm AI phục vụ chính phủ số. Những thị trường này nếu được hình thành bài bản sẽ kéo theo dòng vốn đầu tư tư nhân và cả FDI, tạo động lực tăng trưởng mới cho kinh tế số.
Cách tiếp cận dựa trên mức độ rủi ro cũng đặc biệt quan trọng. Với mô hình này, chúng ta có thể bảo vệ người dân trong các lĩnh vực nhạy cảm như y tế, tài chính, giáo dục hay an ninh, trong khi các ứng dụng rủi ro thấp vẫn được phát triển linh hoạt. Điều này bảo đảm luật không siết chặt một cách cứng nhắc mà vẫn tạo không gian thử nghiệm hợp lý cho doanh nghiệp.
- Ông có khuyến nghị gì để việc xây dựng luật vừa đi trước, vừa không cản trở đổi mới?
- Để luật vừa đi trước, vừa không cản trở đổi mới, tôi cho rằng có một số điểm then chốt. Thứ nhất, nên thiết kế luật theo dạng khung, tập trung vào nguyên tắc, phân loại rủi ro, trách nhiệm và cơ chế phối hợp. Những yêu cầu kỹ thuật chi tiết nên đưa vào nghị định, tiêu chuẩn hoặc hướng dẫn để dễ cập nhật khi công nghệ thay đổi.
Thứ hai, quá trình xây dựng luật cần gắn với sandbox và các chương trình thí điểm, coi đó là phòng thí nghiệm chính sách để đo lường tác động trước khi chuyển sang quy định cứng. Đây cũng là cách nhiều quốc gia đã làm để tránh tình trạng luật vừa ban hành đã lạc hậu.
Thứ ba, cần thiết lập cơ chế đối thoại thường xuyên giữa cơ quan soạn thảo, doanh nghiệp, nhà khoa học và các tổ chức xã hội dân sự. Sự tương tác liên tục sẽ giúp bám sát diễn biến công nghệ, đồng thời tránh nguy cơ để lợi ích của một nhóm chi phối luật chơi chung.
Nếu làm tốt những yếu tố này, Luật AI sẽ trở thành đòn bẩy cho một nền kinh tế AI có trách nhiệm, thay vì trở thành rào cản thủ tục đối với đổi mới sáng tạo.
-Xin cảm ơn ông!
Vì sao Việt Nam cần một luật riêng về AI?
Trợ lý ảo AI được Thủ tướng kỳ vọng ứng dụng rộng rãi, rà soát nghìn văn bản ra sao?
Vốn dành cho doanh nghiệp AI tại Việt Nam tăng 8 lần