Ngày 1/3/2026 đánh dấu cột mốc Luật Trí tuệ nhân tạo Việt Nam chính thức có hiệu lực, song hành với đợt giải ngân đầu tiên từ Quỹ Phát triển AI Quốc gia giai đoạn 2026–2027. Các quy định mới không chỉ thiết lập tiêu chuẩn vận hành và khung quản trị rủi ro, mà còn tạo nền tảng tài chính cho các dự án nghiên cứu và ứng dụng công nghệ trong nước.

Khung quản trị đạo đức và phân bổ nguồn lực AI

Hành lang pháp lý mới phân loại hệ thống AI thành bốn nhóm rủi ro: không được phép, rủi ro cao, rủi ro hạn chế và rủi ro thấp — trong đó mức phân loại quyết định trực tiếp yêu cầu kiểm định trước khi triển khai. Luật cũng quy định rõ giới hạn sử dụng dữ liệu có bản quyền trong quá trình huấn luyện mô hình, đồng thời xác định trách nhiệm pháp lý cụ thể cho các bên liên quan. Song song đó, cơ chế “sandbox” — thử nghiệm có kiểm soát — được áp dụng, cho phép doanh nghiệp và viện nghiên cứu phát hiện lỗi hệ thống, đánh giá tác động thực tế trước khi đưa sản phẩm ra thị trường.

Song song với công tác quản lý rủi ro, Quỹ Phát triển Trí tuệ nhân tạo Quốc gia ưu tiên tài trợ cho các dự án phát triển mô hình ngôn ngữ đặc thù cho tiếng Việt, nâng cấp hạ tầng tính toán hiệu năng cao, cùng các ứng dụng cốt lõi trong lĩnh vực y tế và nông nghiệp. Dự án vượt qua vòng thẩm định của Hội đồng Khoa học Quốc gia được tài trợ tối đa 70% tổng chi phí nghiên cứu. Bên cạnh nguồn kinh phí, các đơn vị nhận tài trợ còn được cấp quyền truy cập vào hệ thống trung tâm dữ liệu dùng chung và mạng lưới siêu máy tính tại các khu công nghệ cao — góp phần giải quyết tình trạng thiếu hụt tài nguyên phần cứng vốn là rào cản lớn với phần lớn tổ chức nghiên cứu trong nước.

Nguồn: Ảnh minh hoạ

Góc nhìn sinh viên Học viện: Ứng dụng AI có trách nhiệm

Sự ra đời của luật đặt ra yêu cầu mới với sinh viên công nghệ: không chỉ tối ưu hóa độ chính xác của thuật toán, mà còn phải thiết kế hệ thống có tính giải trình (explainability) và đảm bảo an toàn bảo mật ngay từ giai đoạn kiến trúc.

Ở nhóm rủi ro cao, các ứng dụng vận hành trong môi trường công nghiệp nguy hiểm phải chịu sự kiểm soát quản trị chặt chẽ nhất. Một ví dụ điển hình là SafeWork — hệ thống AI trên mũ bảo hộ (wearable) giám sát an toàn lao động theo thời gian thực tại các khu mỏ. Là dự án xuất sắc tại Chung kết P-Innovation 2026 do Học viện tổ chức, SafeWork minh chứng cho sự gắn kết ngày càng chặt chẽ giữa nghiên cứu của sinh viên và nhu cầu thực tiễn của doanh nghiệp trong hệ sinh thái đổi mới sáng tạo. Để đáp ứng các tiêu chuẩn pháp lý mới, nhóm phát triển buộc phải tích hợp cơ chế lưu nhật ký quyết định thuật toán phục vụ hậu kiểm, đồng thời duy trì khả năng can thiệp khẩn cấp từ con người trong mọi tình huống.

Nguồn: Cuộc thi Sản phẩm Đổi mới Sáng tạo P-Innovation

Ở các lĩnh vực khác như công nghệ giáo dục, việc xây dựng nền tảng học tập hoặc hệ thống đánh giá năng lực tự động cũng phải tuân thủ nghiêm ngặt quy tắc ẩn danh hóa dữ liệu. Đặc biệt, các thuật toán khai thác mã nguồn và dữ liệu người dùng không được phép tự động huấn luyện lại mô hình khi chưa có sự đồng ý bằng văn bản — yêu cầu cốt lõi nhằm bảo vệ quyền riêng tư. Ngoài ra, khi tham gia các dự án gia công phần mềm hoặc phát triển sản phẩm khởi nghiệp, sinh viên cần chủ động đăng ký tham gia cơ chế thử nghiệm có kiểm soát của cơ quan quản lý. Quy trình này cung cấp dữ liệu thực địa để đánh giá lỗ hổng bảo mật và mức độ thiên kiến trong tập dữ liệu, trước khi bàn giao hệ thống cho phía đối tác.


Nguồn tham khảo:

  1. Quyết định số 127/QĐ-TTg của Thủ tướng Chính phủ: Ban hành Chiến lược quốc gia về nghiên cứu, phát triển và ứng dụng Trí tuệ nhân tạo đến năm 2030 (https://chinhphu.vn/default.aspx?pageid=27160&docid=202565).

  2. Luật Trí tuệ nhân tạo 2025, quy định chi tiết về phân loại và quản lý hệ thống AI theo mức độ rủi ro (https://luatvietnam.vn/khoa-hoc/luat-tri-tue-nhan-tao-2025-so-134-2025-qh15-422299-d1.html).

  3. Báo cáo Đổi mới Sáng tạo và Đầu tư Công nghệ Việt Nam, Trung tâm Đổi mới sáng tạo Quốc gia (https://nic.gov.vn/img/wpuploads/2023/03/VIE_Vietnam-Innovation-Tech-Investment-Report-2023-1.pdf).