Bản tin Pháp luật | Luật Trí Tuệ Nhân Tạo Đầu Tiên của Việt Nam – Những Điều Doanh Nghiệp Cần Biết Trước Ngày Hiệu Lực

Special Alert | Vietnam’s First AI Law – What Businesses Need to Know Ahead of Implementation

Ngày 10/12/2025, Quốc hội đã thông qua Luật Trí tuệ nhân tạo (“Luật AI”), đánh dấu một cột mốc quan trọng trong quá trình Việt Nam tiệm cận với các tiêu chuẩn và xu hướng quốc tế trong lĩnh vực này. Dự kiến có hiệu lực từ ngày 01/3/2026, Luật AI lần đầu tiên mở rộng phạm vi điều chỉnh của pháp luật đối với cả kết quả đầu ra và việc sử dụng trí tuệ nhân tạo (“AI”), đồng thời xem xét những rủi ro tiềm ẩn mà công nghệ này có thể gây ra đối với xã hội.

Các Nội Dung Chính

  • Phạm Vi Điều Chỉnh: Luật AI thiết lập một khuôn khổ quản lý rộng, bao trùm các hoạt động AI được thực hiện tại Việt Nam, đồng thời áp dụng đối với một số trường hợp mà hệ thống AI ở bên ngoài lãnh thổ Việt Nam nhưng có khả năng ảnh hưởng đến các cá nhân, tổ chức hoặc lợi ích công cộng tại Việt Nam.
  • Các Khái Niệm và Nguyên Tắc Cốt Lõi: Luật AI đưa ra các khái niệm pháp lý mới và các nguyên tắc nền tảng trong quản trị AI. Các nguyên tắc này đóng vai trò định hướng cho việc diễn giải và thực thi các nghĩa vụ pháp lý liên quan đến AI trong suốt vòng đời của hệ thống AI.
  • Phân Loại Hệ Thống AI và Nghĩa Vụ Tuân Thủ Tương Ứng: Các hệ thống AI sẽ chịu các nghĩa vụ pháp lý khác nhau tùy theo mức độ rủi ro được phân loại. Tuy nhiên, nghĩa vụ minh bạch vẫn được áp dụng đối với tất cả các hệ thống AI, bất kể mức độ rủi ro.
  • Bảo Vệ Dữ Liệu, Chuẩn Mực Đạo Đức và Quyền Con Người: Việc tuân thủ Luật AI không chỉ dừng lại ở khía cạnh hiệu năng kỹ thuật mà còn bao gồm việc ngăn ngừa các kết quả đầu ra mang tính phân biệt đối xử, bảo đảm sự giám sát phù hợp của con người và quản lý có trách nhiệm các hoạt động xử lý dữ liệu liên quan đến AI.

Phạm Vi Điều Chỉnh

Luật AI điều chỉnh các hoạt động nghiên cứu, phát triển, cung cấp, triển khai và sử dụng hệ thống trí tuệ nhân tạo (“Hoạt Động AI”). Tuy nhiên, Luật AI không áp dụng đối với các Hoạt Động AI được phục vụ riêng cho mục đích quốc phòng và an ninh quốc gia.

Ngoài các chủ thể Việt Nam (bao gồm cơ quan, tổ chức và cá nhân), thì tổ chức và cá nhân nước ngoài tham gia vào Hoạt Động AI tại Việt Nam cũng thuộc phạm vi điều chỉnh của Luật AI.

Từ cách thức quy định tại Điều 1 và Điều 2, có thể hiểu rằng ngay cả khi một hệ thống AI được phát triển hoàn toàn ở nước ngoài bởi một chủ thể nước ngoài, việc cung cấp hệ thống AI đó để sử dụng tại Việt Nam vẫn có khả năng thuộc phạm vi điều chỉnh của Luật AI.

Các Khái Niệm và Nguyên Tắc Cốt Lõi

Luật AI định nghĩa “Hệ Thống AI” là: “Hệ thống dựa trên máy, được thiết kế để thực hiện các năng lực trí tuệ nhân tạo với các mức độ tự chủ khác nhau, có khả năng tự thích nghi sau khi được triển khai; căn cứ vào các mục tiêu được xác định rõ ràng hoặc được hình thành một cách ngầm định, hệ thống suy luận từ dữ liệu đầu vào để tạo ra các đầu ra như dự đoán, nội dung, khuyến nghị hoặc quyết định có thể gây ảnh hưởng tới môi trường vật lý hoặc môi trường số.” Định nghĩa này phản ánh rõ sự tham chiếu đến các khái niệm quốc tế về bản chất cơ bản của hệ thống AI, thể hiện nỗ lực của Việt Nam trong việc hài hòa với các tiêu chuẩn quốc tế trong lĩnh vực này.

Luật AI cũng xác định các chủ thể tham gia vào Hoạt Động AI và/hoặc hệ thống AI, nhằm phân định quyền và nghĩa vụ tương ứng của từng chủ thể. Cụ thể như sau:

  • Nhà Phát Triển là tổ chức hoặc cá nhân thực hiện việc thiết kế, xây dựng, huấn luyện, hoặc tinh chỉnh đáng kể đối với hệ thống AI, bao gồm việc lựa chọn thuật toán, tham số mô hình, phương pháp kỹ thuật, hoặc dữ liệu huấn luyện, dù cho mục đích sử dụng nội bộ hay cung cấp cho bên thứ ba;
  • Nhà Cung Cấp là tổ chức hoặc cá nhân cung cấp, phân phối, đưa ra thị trường, hoặc bằng cách khác cung cấp hệ thống AI cho bên khác sử dụng, dù trên cơ sở thương mại hay phi thương mại, bao gồm thông qua việc cấp phép phần mềm, cung cấp dịch vụ điện toán đám mây, API hoặc các giải pháp tích hợp;
  • Bên Triển Khai là tổ chức hoặc cá nhân tích hợp, triển khai hoặc sử dụng hệ thống AI trong hoạt động hoặc sản phẩm của mình, đồng thời thực hiện quyền kiểm soát đối với mục đích, bối cảnh hoặc cách thức mà hệ thống AI đó được áp dụng;
  • Người Sử Dụng là cá nhân hoặc pháp nhân trực tiếp tương tác với hệ thống AI hoặc sử dụng kết quả đầu ra của hệ thống AI, nhưng không kiểm soát việc thiết kế, các tham số mô hình, hoặc quá trình ra quyết định vận hành của hệ thống AI.

Điểm đáng chú ý nhất là Luật AI nhất quán trong việc đề cao các nguyên tắc đạo đức và bảo vệ quyền con người trong các Hoạt Động AI. Theo đó, con người phải luôn được đặt ở vị trí trung tâm trong mọi Hoạt Động AI, đồng thời đề cao quan điểm rằng hệ thống AI nên được xem là công cụ hỗ trợ con người, chứ không phải là sự thay thế cho con người.

Phân Loại Hệ Thống AI và Nghĩa Vụ Tuân Thủ Tương Ứng

Phân Loại Dựa Trên Mức Độ Rủi Ro

So với các bản dự thảo trước đây, Luật AI đã lựa chọn cách tiếp cận định nghĩa về hệ thống AI theo hướng trung lập về mặt chức năng và công nghệ, nhằm bảo đảm tính linh hoạt và khả năng thích ứng lâu dài của khung pháp lý trước sự phát triển nhanh chóng của công nghệ, đồng thời bao quát cả các công nghệ AI mới có thể xuất hiện trong tương lai.

Trên cơ sở đó, Luật AI thiết lập cơ chế phân loại hệ thống AI theo mức độ rủi ro, qua đó xác định và áp dụng các nghĩa vụ tuân thủ tương ứng đối với từng hệ thống AI.

Bảng dưới đây tóm lược cách thức phân loại hệ thống AI, cũng như các nghĩa vụ tuân thủ quan trọng cần đặc biệt lưu ý:

Mức Độ Rủi Ro Bản Chất Thông Báo Kết Quả Phân Loại cho

Bộ KH&CN

Kiểm Tra & Giám Sát Đánh Giá Sự Phù Hợp
Hệ thống AI có rủi ro cao Các hệ thống có thể gây thiệt hại đáng kể đến tính mạng, sức khỏe, quyền và lợi ích hợp pháp của tổ chức, cá nhân, lợi ích quốc gia, lợi ích công cộng, an ninh quốc gia.
  • Do Nhà Cung Cấp tự thực hiện;
  • Phải lập hồ sơ phân loại;
  • Kết quả phân loại phải được thông báo cho Bộ KH&CN.
Được kiểm tra định kỳ hoặc khi có dấu hiệu vi phạm.
  • Đánh Giá Sự Phù Hợp phải được thực hiện trước khi đưa vào sử dụng hoặc khi có thay đổi đáng kể trong quá trình sử dụng;
  • Việc Đánh Giá Sự Phù Hợp cũng phải tuân thủ quy định pháp luật về tiêu chuẩn và quy chuẩn kỹ thuật trong trường hợp có tiêu chuẩn hoặc quy chuẩn áp dụng đối với hệ thống AI.
Hệ thống AI có rủi ro trung bình Các hệ thống có khả năng gây nhầm lẫn, tác động hoặc thao túng người sử dụng do không nhận biết được chủ thể tương tác là hệ thống trí tuệ nhân tạo hoặc nội dung do hệ thống tạo ra.
  • Do Nhà Cung Cấp tự thực hiện;
  • Phải lập hồ sơ phân loại;
  • Kết quả phân loại phải được thông báo cho Bộ KH&CN.
Được giám sát thông qua báo cáo, kiểm tra chọn mẫu hoặc đánh giá của tổ chức độc lập. Không yêu cầu.
Hệ thống AI có rủi ro thấp Các hệ thống không thuộc nhóm hệ thống AI có rủi ro cao và hệ thống AI có rủi ro trung bình.
  • Do Nhà Cung Cấp tự thực hiện;
  • Không có yêu cầu cụ thể về việc lập hồ sơ phân loại;
  • Khuyến khích (không bắt buộc) công khai thông tin cơ bản của hệ thống nhằm tăng tính minh bạch.
Được theo dõi, kiểm tra khi có sự cố, phản ánh hoặc khi cần bảo đảm an toàn, không làm phát sinh nghĩa vụ không cần thiết cho tổ chức, cá nhân. Không yêu cầu.

Việc phân loại hệ thống AI theo mức độ rủi ro được đánh giá dựa trên một số tiêu chí quan trọng, bao gồm mức độ tác động của hệ thống đối với quyền con người, an toàn và an ninh. Lĩnh vực mà hệ thống được triển khai, đặc biệt khi lĩnh vực đó cung cấp dịch vụ thiết yếu hoặc liên quan trực tiếp đến lợi ích công cộng, cũng như phạm vi người sử dụng và quy mô tác động tiềm tàng của hệ thống, cũng là những yếu tố được xem xét. Các hướng dẫn chi tiết hơn về khuôn khổ phân loại này dự kiến sẽ được Chính phủ ban hành trong thời gian tới.

Nghĩa Vụ Minh Bạch

Trong khi đó, trách nhiệm minh bạch áp dụng đối với hệ thống AI sẽ có sự khác biệt tùy theo vai trò của từng chủ thể đối với hệ thống, từ đó có thể hiểu rằng các trách nhiệm này được áp dụng đối với tất cả hệ thống AI bất kể mức độ rủi ro.

Nhà Cung Cấp có trách nhiệm bảo đảm rằng hệ thống AI được cung cấp kèm theo đầy đủ thông tin, giúp Bên Triển Khai hiểu rõ mục đích sử dụng dự kiến của hệ thống, logic vận hành, các hạn chế cũng như những rủi ro có thể dự đoán được, bao gồm các hướng dẫn rõ ràng để sử dụng hệ thống một cách hợp pháp và an toàn.

Đối với Bên Triển Khai, phải bảo đảm tính minh bạch đối với người dùng cuối và các bên có thể bị ảnh hưởng, bao gồm việc thông báo cho họ biết khi họ đang tương tác với hoặc chịu sự tác động từ các quyết định được tạo ra bởi hệ thống AI, đồng thời thiết lập các cơ chế giám sát của con người phù hợp.

Do đó, việc tuân thủ hiệu quả các nghĩa vụ này đòi hỏi sự phối hợp chặt chẽ giữa Nhà Cung Cấp và Bên Triển Khai, đặc biệt liên quan đến việc trao đổi thông tin, cơ chế công bố thông tin và việc phân định trách nhiệm minh bạch trong toàn bộ vòng đời của hệ thống AI.

Bảo Vệ Dữ Liệu, Chuẩn Mực Đạo Đức và Quyền Con Người

Bảo vệ dữ liệu, các chuẩn mực đạo đức và cơ chế bảo đảm quyền con người là những ưu tiên được phản ánh rõ ràng trong Luật AI; theo đó, Luật AI đã dành riêng một Chương V cho nội dung về “Đạo Đức Và Trách Nhiệm Trong Hoạt Động AI”. Việc dành một chương độc lập cho các vấn đề này cho thấy nhà làm luật coi việc tuân thủ các chuẩn mực đạo đức và bảo vệ quyền con người là nền tảng cốt lõi của quản trị AI, chứ không chỉ là yếu tố bổ trợ cho các yêu cầu kỹ thuật hoặc an ninh.

Luật AI cũng quy định một loạt các nguyên tắc và trách nhiệm mang tính định hướng, áp dụng xuyên suốt toàn bộ vòng đời của hệ thống AI, bao gồm nghĩa vụ tôn trọng và bảo vệ quyền con người; ngăn ngừa các kết quả mang tính phân biệt đối xử hoặc thiên lệch; và bảo đảm mức độ minh bạch cũng như cơ chế giám sát phù hợp của con người, đặc biệt trong trường hợp hệ thống AI có thể tác động đáng kể đến cá nhân hoặc được triển khai trong các bối cảnh có mức độ rủi ro cao. Các nguyên tắc này cũng có mối liên hệ chặt chẽ với các yêu cầu về bảo vệ dữ liệu, qua đó củng cố các kỳ vọng liên quan đến việc sử dụng dữ liệu hợp pháp, bảo đảm chất lượng dữ liệu và trách nhiệm giải trình trong các hoạt động liên quan đến AI.

Khung Đạo Đức AI Quốc Gia dự kiến sẽ được ban hành, đồng thời được rà soát và cập nhật định kỳ khi có những thay đổi lớn về công nghệ, pháp luật và thực tiễn quản lý. Khung này được định hướng làm cơ sở cho việc xây dựng các tiêu chuẩn, quy chuẩn kỹ thuật, hướng dẫn chuyên ngành trong lĩnh vực AI. Tuy nhiên, theo cách thức diễn giải hiện tại của Luật AI, việc áp dụng khung này chủ yếu mang tính khuyến khích.

Từ góc độ thực tiễn, có thể hiểu rằng việc đánh giá tuân thủ sẽ không chỉ dựa trên hiệu năng kỹ thuật mà còn xem xét đến các tác động của việc triển khai AI đối với xã hội và đối với từng cá nhân. Do đó, các doanh nghiệp tham gia vào các hoạt động liên quan đến AI nên sớm tích hợp các yêu cầu về chuẩn mực đạo đức và quyền con người vào khung pháp lý tuân thủ và hệ thống quản trị nội bộ ngay từ giai đoạn đầu.

Kết Luận

Luật AI đánh dấu một bước tiến quan trọng trong nỗ lực của Việt Nam nhằm xây dựng một khuôn khổ pháp lý toàn diện, dựa trên cách tiếp cận đánh giá mức độ rủi ro đối với công nghệ trí tuệ nhân tạo. Mặc dù một số nội dung chi tiết vẫn cần được hướng dẫn thêm trong các văn bản thi hành, Luật AI đã thể hiện rõ ràng rằng nghĩa vụ tuân thủ sẽ không chỉ giới hạn ở các yêu cầu kỹ thuật, mà còn bao gồm trách nhiệm giải trình, quản trị dữ liệu và việc triển khai AI một cách có trách nhiệm trong suốt vòng đời của hệ thống AI.

Đối với các hệ thống AI đã được đưa vào vận hành trước thời điểm Luật AI có hiệu lực, các nghĩa vụ tuân thủ theo Luật AI vẫn được áp dụng; tuy nhiên, Luật AI cũng quy định thời hạn chuyển tiếp 18 tháng đối với các hệ thống AI trong lĩnh vực y tế, giáo dục và tài chính, và 12 tháng đối với các hệ thống AI trong các lĩnh vực còn lại.

Vì vậy, các doanh nghiệp tham gia vào Hoạt Động AI nên bắt đầu quá trình chuẩn bị từ sớm nhằm bảo đảm sự phù hợp kịp thời với các yêu cầu pháp lý và giảm thiểu rủi ro tuân thủ khi Luật AI chính thức có hiệu lực.

Bài viết liên quan