Đạo đức trí tuệ nhân tạo hướng tới sự phát triển bền vững của con người
Bộ Khoa học và Công nghệ đang lấy ý kiến góp ý cho dự thảo Thông tư hướng dẫn Khung đạo đức trí tuệ nhân tạo quốc gia. Qua đó làm căn cứ để các tổ chức, doanh nghiệp tham chiếu xây dựng quy tắc ứng xử nội bộ và thực hiện tự đánh giá mức độ tuân thủ các nguyên tắc đạo đức trí tuệ nhân tạo trong các hoạt động có liên quan, hướng tới sự phát triển bền vững của con người.
![]() |
| Trí tuệ nhân tạo phải hướng tới sự phát triển bền vững của con người. |
Theo dự thảo Thông tư, việc sử dụng hệ thống trí tuệ nhân tạo cần phải an toàn, tin cậy và không gây hại đến tính mạng, sức khỏe, danh dự, nhân phẩm và đời sống tinh thần của con người. Do đó, hệ thống trí tuệ nhân tạo phải tuân thủ 3 tiêu chí gồm: An toàn kỹ thuật và an ninh mạng; sự kiểm soát của con người; bảo vệ danh dự, nhân phẩm.
Cụ thể, hệ thống trí tuệ nhân tạo phải có khả năng chống chịu rủi ro, bảo vệ tính toàn vẹn của dữ liệu huấn luyện, chống lại các hành vi đầu độc dữ liệu (Data Poisoning), ngăn ngừa sự cố và các cuộc tấn công mạng, nhằm bảo vệ tính mạng, sức khỏe và tài sản của người dùng.
Bên cạnh đó, hệ thống phải duy trì sự kiểm soát và khả năng can thiệp của con người; con người có thể giám sát, tạm dừng hoặc vô hiệu hóa hệ thống khi có nguy cơ gây hại. Đồng thời, không được tạo ra hoặc lan truyền nội dung xúc phạm danh dự, nhân phẩm, hoặc gây tổn hại đến đời sống tinh thần của con người.
Cũng theo dự thảo, hệ thống trí tuệ nhân tạo phải tôn trọng quyền con người và quyền riêng tư, bảo đảm tuân thủ Hiến pháp và pháp luật về bảo vệ dữ liệu cá nhân; không xâm phạm trái phép đời tư của công dân. Dữ liệu và thuật toán phải được rà soát để loại bỏ thiên kiến (bias); không gây phân biệt đối xử dựa trên giới tính, dân tộc, tôn giáo, địa vị xã hội hoặc các đặc điểm khác được pháp luật bảo vệ.
![]() |
| Nhiều bệnh viện tại Việt Nam triển khai ứng dụng trí tuệ nhân tạo trong khám chữa bệnh. |
Một trong những đặc tính nữa, đó là việc sử dụng trí tuệ nhân tạo phải được công khai, minh bạch, bảo đảm người dùng được thông báo và có thể nhận biết rõ khi nội dung, dịch vụ hoặc quyết định có sự tham gia của hệ thống trí tuệ nhân tạo; các chủ thể liên quan phải có khả năng giải trình về quá trình hoạt động, quyết định và các hệ quả phát sinh từ hệ thống trí tuệ nhân tạo.
Đối với nội dung do hệ thống trí tuệ nhân tạo tạo ra hoặc chỉnh sửa, nhà cung cấp và bên triển khai có trách nhiệm thông báo, gắn nhãn hoặc áp dụng biện pháp phù hợp để người tiếp nhận nhận biết, đồng thời thực hiện đầy đủ các nghĩa vụ về minh bạch theo quy định của pháp luật về trí tuệ nhân tạo và pháp luật có liên quan.
Đáng chú ý, việc sử dụng hệ thống trí tuệ nhân tạo phải góp phần nâng cao chất lượng cuộc sống, hỗ trợ cộng đồng và thúc đẩy sự thịnh vượng chung; ưu tiên phát triển bền vững và AI xanh thông qua việc sử dụng hiệu quả năng lượng, tiết kiệm tài nguyên và giảm thiểu tác động tiêu cực đến môi trường; cũng như hỗ trợ thu hẹp khoảng cách số, tạo điều kiện cho các nhóm yếu thế tiếp cận và thụ hưởng lợi ích từ trí tuệ nhân tạo.
Ngoài ra, chú trọng khuyến khích tìm tòi giải pháp công nghệ mới, nhưng phải gắn liền với đánh giá rủi ro và đạo đức ngay từ khâu thiết kế (Ethics by Design); quá trình thu thập, xử lý dữ liệu để huấn luyện, kiểm thử phải hợp pháp, bảo đảm quyền sở hữu trí tuệ và an ninh mạng; tổ chức, cá nhân ứng dụng AI phải chịu trách nhiệm về kết quả sử dụng; không sử dụng AI để xâm phạm lợi ích quốc gia, công cộng hoặc quyền lợi hợp pháp của người khác.
Hiện nay, trí tuệ nhân tạo không còn là khái niệm viễn tưởng, mà đã trở thành một phần hiện thực sống động, hiện diện trong hầu hết các lĩnh vực đời sống xã hội. Do đó, việc Bộ Chính trị ban hành Nghị quyết số 57-NQ/TW ngày 22/12/2024 về đột phá phát triển khoa học, công nghệ, đổi mới sáng tạo và chuyển đổi số quốc gia được đánh giá rất phù hợp, nhằm mục tiêu đưa đất nước vững bước vào kỷ nguyên phát triển giàu mạnh.
Tuy nhiên, bên cạnh tiềm năng, lợi thế, Việt Nam cũng đối mặt không ít thách thức trong phát triển trí tuệ nhân tạo, từ kỹ thuật, đạo đức công nghệ, cho đến tính pháp lý, an ninh, chủ quyền dữ liệu. Đặc biệt, trí tuệ nhân tạo có thể bị lợi dụng vào các hoạt động xâm phạm an ninh quốc gia, gây bất ổn xã hội, tạo nên những yếu tố nguy cơ phi truyền thống trong không gian mạng, thông tin và dư luận.
Do vậy, yêu cầu đặt ra không chỉ là phát triển trí tuệ nhân tạo nhanh, mà còn phải phát triển an toàn, có kiểm soát, có đạo đức và vì con người. Điều này đòi hỏi chúng ta phải có những định hướng chiến lược dài hạn, toàn diện và đồng bộ, được định hình trên nền tảng giá trị nhân văn, vì mục tiêu phục vụ con người, bảo vệ quyền con người, củng cố an ninh quốc gia trong môi trường số.






















