Xây dựng Luật Trí tuệ nhân tạo: Đặt con người làm trung tâm và hướng tới mục tiêu kép
Sáng ngày 21/11, tiếp tục chương trình Kỳ họp thứ 10, Quốc hội đã nghe Tờ trình và Báo cáo thẩm tra về dự án Luật Trí tuệ nhân tạo. Đây được xác định là luật khung, linh hoạt, đặt con người làm trung tâm và hướng tới mục tiêu kép: vừa quản lý rủi ro, bảo đảm chủ quyền số; vừa kiến tạo hành lang pháp lý thông thoáng để trí tuệ nhân tạo trở thành động lực tăng trưởng nhanh và bền vững.

Quốc hội nghe trình bày Tờ trình và Báo cáo thẩm tra về dự án Luật Trí tuệ nhân tạo sàng ngày 21/11. Ảnh: QH
Thể chế hóa "luật khung" cho công nghệ AI với nguyên tắc con người là trung tâm
Trình bày Tờ trình của Chính phủ, Bộ trưởng Bộ Khoa học và Công nghệ Nguyễn Mạnh Hùng nhấn mạnh sự cần thiết của dự án Luật Trí tuệ nhân tạo nhằm thể chế hóa chủ trương của Đảng và Nhà nước, tạo bước đột phá cho lĩnh vực này. Dự thảo Luật gồm 8 Chương với 36 Điều, được xây dựng trên tinh thần là một luật khung, linh hoạt để thích ứng với tốc độ phát triển nhanh chóng của công nghệ.
Luật quy định toàn diện các biện pháp để cân bằng giữa quản lý và thúc đẩy hoạt động nghiên cứu, phát triển, triển khai ứng dụng trí tuệ nhân tạo (AI) tại Việt Nam. Luật Trí tuệ nhân tạo đặt con người làm trung tâm với nguyên tắc tối cao là trí tuệ nhân tạo (AI) phục vụ con người, không thay thế con người, con người giám sát trí tuệ nhân tạo ở những quyết định trọng yếu; trí tuệ nhân tạo phải minh bạch, trách nhiệm và an toàn. Luật quản lý hệ thống trí tuệ nhân tạo theo mức độ rủi ro, khuyến khích phát triển trí tuệ nhân tạo trong nước và tự chủ về trí tuệ nhân tạo, lấy trí tuệ nhân tạo làm động lực tăng trưởng nhanh, bền vững và bảo đảm chủ quyền số quốc gia.
Theo Bộ trưởng Bộ Khoa học và Công nghệ Nguyễn Mạnh Hùng, nội dung Luật Trí tuệ nhân tạo kế thừa và bãi bỏ các quy định về trí tuệ nhân tạo tại Luật Công nghiệp công nghệ số số 71/2025/QH15; bổ sung các "khoảng trống" pháp lý để hoàn thiện pháp luật về trí tuệ nhân tạo. Tham khảo có chọn lọc pháp luật và kinh nghiệm thực tiễn về xu hướng phát triển trí tuệ nhân tạo của một số quốc gia phù hợp với điều kiện thực tiễn Việt Nam, pháp luật và điều ước quốc tế mà Việt Nam là thành viên.
Luật Trí tuệ nhân tạo quy định về thúc đẩy hoạt động nghiên cứu, phát triển, cung cấp, triển khai và sử dụng hệ thống trí tuệ nhân tạo; quyền, nghĩa vụ của tổ chức, cá nhân có liên quan; và quản lý nhà nước đối với các hoạt động trí tuệ nhân tạo tại Việt Nam. Đối tượng áp dụng của Luật Trí tuệ nhân tạo là cơ quan, tổ chức, cá nhân Việt Nam và tổ chức, cá nhân nước ngoài có hoạt động phát triển, cung cấp, triển khai, sử dụng hệ thống trí tuệ nhân tạo tại Việt Nam hoặc có hệ thống trí tuệ nhân tạo tạo ra kết quả được sử dụng tại Việt Nam.
Cần chuyển từ "tiền kiểm" sang "hậu kiểm" và làm rõ trách nhiệm pháp lý
Thay mặt cơ quan thẩm tra, Chủ nhiệm Ủy ban Khoa học, Công nghệ và Môi trường Nguyễn Thanh Hải đánh giá cao dự thảo Luật nhưng cũng đặt ra nhiều vấn đề cần hoàn thiện. Ủy ban cho rằng, quản lý và thúc đẩy không phải là hai mục tiêu đối lập mà cần "hài hòa", trong đó quản lý minh bạch chính là nền tảng cho sự phát triển bền vững.
Ngoài ra, Luật xây dựng theo hướng Luật khung là phù hợp thực tiễn. Tuy nhiên, do lĩnh vực AI phát triển rất nhanh nên việc phải sửa đổi Luật trong một thời gian ngắn là có thể xảy ra. Có ý kiến cho rằng, Luật Trí tuệ nhân tạo là Luật gốc và đối với mỗi Luật chuyên ngành đều cần có 1 chương riêng về AI
Về tính hợp hiến, hợp pháp, tính thống nhất của dự thảo Luật với hệ thống pháp luật và tính tương thích với điều ước quốc tế, Ủy ban nhận thấy, các nội dung của dự thảo Luật cơ bản phù hợp, đề nghị tiếp tục rà soát tính đồng bộ với các luật như Bộ Luật Dân sự, Luật Chất lượng sản phẩm hàng hóa, Luật Tiêu chuẩn và quy chuẩn kỹ thuật và mối quan hệ với các luật chuyên ngành như An toàn thông tin, Chuyển đổi số và Sở hữu trí tuệ. Đồng thời cập nhật nội dung Công ước của Liên Hợp Quốc về chống tội phạm mạng (Công ước Hà Nội) vừa được ký tại Hà Nội vào tháng 10 vừa qua.
Đối với việc phân loại rủi ro (4 mức: thấp, trung bình, cao, không chấp nhận được), Ủy ban nhất trí về chủ trương nhưng đề nghị cần có tiêu chí định lượng hoặc định tính rõ ràng hơn, cùng các công cụ đánh giá cụ thể để tránh khó khăn và rủi ro pháp lý cho doanh nghiệp khi tự phân loại.
Về các quy định mang tính tiền kiểm, Ủy ban đề nghị rà soát, cắt giảm các quy định tiền kiểm như yêu cầu hồ sơ kỹ thuật, nhật ký hoạt động trước khi đưa sản phẩm vào lưu hành, sẽ tăng chi phí tuân thủ, chậm quá trình đổi mới và ứng dụng AI, làm giảm tính cạnh tranh và thu hút đầu tư, cần nghiên cứu chuyển mạnh sang cơ chế hậu kiểm.
Về Ủy ban Quốc gia về trí tuệ nhân tạo, Ủy ban đề nghị làm rõ thẩm quyền thành lập, cơ chế tổ chức và hoạt động của Ủy ban Quốc gia. Ngoài ra, việc thành lập Ủy ban cần bám sát Sáng kiến số 26 là “Hình thành trung tâm đầu não về nghiên cứu, đào tạo và thử nghiệm AI”.
Về cơ sở dữ liệu quốc gia hệ thống trí tuệ nhân tạo và cơ sở dữ liệu phục vụ trí tuệ nhân tạo, Ủy ban đề nghị bổ sung nguyên tắc cốt lõi để đảm bảo chất lượng đối với dữ liệu phục vụ AI như: dữ liệu phải “đúng - đủ - sạch - sống” và thống nhất dùng chung; có cơ chế kết nối liên thông, chia sẻ dữ liệu không để dữ liệu bị phân tán tạo điểm nghẽn trong nghiên cứu, phát triển AI; có quy định nguyên tắc bắt buộc về đảm bảo an ninh mạng, bảo mật dữ liệu và phòng vệ đối với hạ tầng AI quốc gia, chống nguy cơ chiếm quyền điều khiển, rò rỉ dữ liệu.
Về trách nhiệm pháp lý của các bên liên quan, những hành vi và lỗi do con người thực hiện thì AI cũng có thể thực hiện. Trong khi đó, trách nhiệm pháp lý của bản thân AI còn nhiều quan điểm rất khác nhau nên rất khó xác định trách nhiệm theo nghĩa truyền thống. Khi có vụ việc phát sinh sẽ gây tranh chấp về trách nhiệm hành chính, dân sự, hình sự. Do vậy, cần bổ sung nguyên tắc để phân biệt trách nhiệm giữa các chủ thể, các bên liên quan kể cả đối với nhà cung cấp nước ngoài khi cung cấp dịch vụ AI xuyên biên giới và phân biệt giữa các trường hợp cố ý, không cố ý hoặc lỗi do giới hạn kỹ thuật, không tiên lượng được trước.
Bên cạnh đó, Ủy ban đề nghị bổ sung các hành vi bị cấm cụ thể như: sử dụng AI để kích động chính trị, xâm phạm an ninh quốc gia, thao túng bầu cử, hoặc tạo dựng nội dung giả mạo (deepfake) để lừa đảo, xúc phạm danh dự…
Cuối cùng, cơ quan thẩm tra đề nghị bổ sung các quy định về sử dụng AI trong nghiên cứu khoa học (như thiết kế vật liệu mới, protein...) đi kèm cơ chế thử nghiệm có kiểm soát (sandbox) và miễn trừ trách nhiệm rủi ro trong quá trình thử nghiệm nếu tuân thủ đúng quy định. Đồng thời, cần có đánh giá tác động xã hội của AI đối với việc làm và các giá trị đạo đức để có biện pháp ứng phó phù hợp.


















