Ngày 10/03/2026, Bộ Khoa học và Công nghệ ban hành Thông tư số 05/2026/TT-BKHCN kèm theo Khung đạo đức trí tuệ nhân tạo quốc gia. Đây là văn bản hướng dẫn đạo đức AI đầu tiên của Việt Nam, ra đời chỉ chín ngày sau khi Luật Trí tuệ nhân tạo (Luật số 134/2025/QH15) chính thức có hiệu lực. Sự kiện này đánh dấu bước đi quan trọng: Việt Nam không chỉ quản lý AI bằng luật pháp mà còn xây dựng nền tảng đạo đức để định hướng toàn bộ hệ sinh thái AI phát triển có trách nhiệm.

- Phạm vi áp dụng
Thông tư áp dụng bắt buộc đối với cơ quan quản lý nhà nước, tổ chức và cá nhân tham gia phát triển, cung cấp, triển khai hoặc sử dụng hệ thống AI phục vụ hoạt động quản lý nhà nước hoặc cung cấp dịch vụ công. Nói cách khác, mọi hệ thống AI trong khu vực công từ chatbot hỗ trợ thủ tục hành chính đến hệ thống phân tích dữ liệu phục vụ ra quyết định chính sách đều nằm trong phạm vi điều chỉnh.
Đối với khu vực tư nhân và tổ chức nước ngoài hoạt động tại Việt Nam, Khung đạo đức được khuyến khích áp dụng trên tinh thần tự nguyện. Tuy nhiên, với xu hướng siết chặt quản trị AI toàn cầu, việc tuân thủ sớm có thể trở thành lợi thế cạnh tranh khi các quy định bắt buộc được mở rộng trong tương lai.
- Bốn trụ cột đạo đức
Khung đạo đức được cấu trúc quanh bốn nhóm nguyên tắc, mỗi nhóm đi kèm các yêu cầu cụ thể mà tổ chức, cá nhân cần thực hiện.
An toàn, độ tin cậy và không gây hại
Đây là nguyên tắc nền tảng nhất. Tổ chức phải thiết kế an toàn ngay từ đầu nghĩa là xác định trước các kịch bản gây hại có thể xảy ra đối với tính mạng, sức khỏe, danh dự, nhân phẩm trước khi hệ thống được triển khai. Cơ chế kiểm thử, xác nhận và kiểm định nội bộ là bắt buộc.
Điểm đáng chú ý là Thông tư đề cập cụ thể đến hai khái niệm kỹ thuật: “đầu độc dữ liệu” (data poisoning – tấn công nhằm sửa đổi, thao túng tập dữ liệu huấn luyện) và “đầu độc mô hình” (model poisoning – tấn công nhắm vào các thành phần tiền huấn luyện). Việc đưa các thuật ngữ an ninh AI cụ thể vào văn bản pháp quy cho thấy mức độ cập nhật và am hiểu thực tiễn công nghệ của cơ quan soạn thảo.
Nguyên tắc kiểm soát của con người cũng được nhấn mạnh: con người phải duy trì quyền giám sát và can thiệp đối với mọi quyết định và hành vi của hệ thống AI, tương ứng với mức độ ảnh hưởng của hệ thống đó.
Quyền con người, công bằng, minh bạch và không phân biệt đối xử
Hệ thống AI không được xâm phạm quyền riêng tư, dữ liệu cá nhân, tự do ý chí, quyền tiếp cận thông tin và quyền được đối xử bình đẳng. Tổ chức phải chủ động nhận diện và giảm thiểu ba loại thiên lệch: thiên lệch dữ liệu, thiên lệch mô hình và thiên lệch vận hành.
Khung đạo đức yêu cầu xem xét đầy đủ tác động đến các nhóm dễ bị tổn thương bao gồm trẻ em, người cao tuổi, người khuyết tật và nhóm yếu thế. Đây là yêu cầu mang tính nhân văn sâu sắc, phản ánh cam kết phát triển AI bao trùm, không để ai bị bỏ lại phía sau.
Về minh bạch, tổ chức phải thông báo rõ ràng khi có sử dụng AI, cung cấp thông tin hợp lý về mục tiêu, phạm vi, cách thức hoạt động và giới hạn của hệ thống đặc biệt không được gây hiểu nhầm về năng lực thực tế.
Hạnh phúc, thịnh vượng và phát triển bền vững
Nguyên tắc thứ ba mang chiều kích xã hội và môi trường rõ nét. AI phải phục vụ lợi ích cộng đồng, thu hẹp khoảng cách số giữa các vùng miền và nhóm dân cư. Giao diện hệ thống được yêu cầu thiết kế dễ tiếp cận, dễ sử dụng cho mọi đối tượng.
Đáng chú ý, Khung đạo đức yêu cầu tổ chức xem xét mức tiêu thụ năng lượng, tài nguyên tính toán và tác động môi trường trong suốt vòng đời hệ thống AI. Trong bối cảnh các mô hình AI lớn đang bị chỉ trích toàn cầu vì “dấu chân carbon” khổng lồ, yêu cầu này cho thấy Việt Nam đang tiếp cận AI từ góc độ phát triển bền vững không chỉ đổi mới bằng mọi giá.
Hệ thống AI cũng phải tôn trọng chuẩn mực đạo đức xã hội và bản sắc văn hóa Việt Nam, không tạo ra nội dung kỳ thị hoặc phân biệt đối xử.
Đổi mới sáng tạo và trách nhiệm xã hội
Nguyên tắc cuối cùng tạo sự cân bằng giữa khuyến khích đổi mới và yêu cầu trách nhiệm. Tổ chức được khuyến khích thử nghiệm, thí điểm, nghiên cứu mở và chia sẻ tri thức. Đồng thời, trách nhiệm của các chủ thể trong chuỗi cung ứng AI bao gồm bên thứ ba, nhà thầu, đối tác phải được phân định rõ ràng, kèm cơ chế tiếp nhận khiếu nại và khắc phục hậu quả.
Thông tư cũng nhấn mạnh việc đào tạo nhận thức về rủi ro đạo đức AI cho cán bộ và người lao động, cùng việc tăng cường hợp tác quốc tế về tiêu chuẩn đạo đức AI.
- Hướng dẫn theo nhóm chủ thể
Phụ lục I của Thông tư cung cấp hướng dẫn cụ thể cho ba nhóm đối tượng:
Người sử dụng được khuyến cáo sử dụng AI như công cụ hỗ trợ, không thay thế hoàn toàn phán đoán của con người. Đặc biệt, người sử dụng cần kiểm chứng kết quả đầu ra của AI trong các lĩnh vực nhạy cảm như sức khỏe, tài chính và pháp lý. Không nhập thông tin nhạy cảm vào hệ thống AI khi chưa có biện pháp kiểm soát phù hợp.
Nhà phát triển, nhà cung cấp, bên triển khai phải lồng ghép cân nhắc đạo đức trong toàn bộ vòng đời hệ thống — từ thiết kế, huấn luyện, kiểm thử đến vận hành. Không được thổi phồng năng lực hệ thống. Phải ban hành Bộ quy tắc đạo đức AI nội bộ hoặc theo ngành.
Cơ quan nhà nước phải đảm bảo quyết định cuối cùng thuộc thẩm quyền con người — hệ thống AI không thay thế trách nhiệm của người ra quyết định. Phải tham vấn các bên liên quan, nhất là nhóm dễ bị tổn thương, và tạo cơ chế phản ánh, khiếu nại cho người dân.
- Công cụ tự đánh giá từ nguyên tắc đến thực hành
Phụ lục II cung cấp mẫu phiếu tự đánh giá tuân thủ Khung đạo đức, bao gồm các tiêu chí đánh giá theo từng nguyên tắc với ba mức: Đạt, Chưa đạt và Chưa áp dụng. Mỗi tiêu chí yêu cầu minh chứng, hành động khắc phục (nếu có) và phân công đơn vị phụ trách kèm thời hạn.
Bộ KH&CN cũng cam kết xây dựng nền tảng số và công cụ trắc nghiệm tự động để hỗ trợ các bộ, ngành, địa phương và doanh nghiệp tự đánh giá mức độ tuân thủ. Cách tiếp cận này vừa thực tiễn, vừa giảm gánh nặng hành chính thay vì kiểm tra từ trên xuống, tổ chức được trao công cụ để tự rà soát và cải thiện.
Khung đạo đức sẽ được rà soát, cập nhật định kỳ ba năm một lần hoặc khi có thay đổi lớn về công nghệ, pháp luật và thực tiễn quản lý đảm bảo không bị lạc hậu trước tốc độ phát triển nhanh chóng của AI.
- Nhìn trong bối cảnh quốc tế
Việc ban hành Khung đạo đức AI quốc gia đặt Việt Nam vào nhóm các quốc gia chủ động xây dựng chuẩn mực đạo đức cho AI, bên cạnh EU AI Act, Khuyến nghị về đạo đức AI của UNESCO, và các khung đạo đức AI của Singapore, Hàn Quốc. Cách tiếp cận của Việt Nam có những nét riêng: vừa tiếp thu kinh nghiệm quốc tế (đặc biệt mô hình dựa trên rủi ro của EU), vừa nhấn mạnh bản sắc văn hóa, phát triển bao trùm và trách nhiệm xã hội phù hợp với bối cảnh một quốc gia đang phát triển nhanh.
Với Luật AI có hiệu lực từ 01/03/2026, Khung đạo đức ban hành ngày 10/03/2026, và các nghị định hướng dẫn sẽ tiếp tục được hoàn thiện trong năm nay, Việt Nam đang xây dựng một hệ thống quản trị AI đồng bộ: luật pháp — đạo đức — công cụ thực thi. Đối với sinh viên, nhà nghiên cứu, doanh nghiệp và cơ quan nhà nước, đây là thời điểm cần chủ động tìm hiểu, áp dụng và đóng góp vào quá trình định hình tương lai AI có trách nhiệm tại Việt Nam.
Tài liệu tham khảo: Thông tư 05/2026/TT-BKHCN — Cổng Thông tin điện tử Chính phủ (vanban.chinhphu.vn); Luật Trí tuệ nhân tạo số 134/2025/QH15;