Đề nghị bổ sung phạm vi điều chỉnh luật AI với lĩnh vực quốc phòng, an ninh và cơ yếu

10:08, 28/11/2025

Chiều 27/11, tham gia thảo luận tại hội trường về dự thảo Luật Trí tuệ nhân tạo (AI), đại biểu Nguyễn Thị Lệ Thủy- nguyên Phó Chủ nhiệm Ủy ban Khoa học Công nghệ và Môi trường của Quốc hội, ĐBQH Đoàn ĐBQH tỉnh Vĩnh Long góp ý về phạm vi điều chỉnh của dự thảo Luật Trí tuệ nhân tạo (AI), đặc biệt nhấn mạnh sự cần thiết phải đưa hoạt động AI trong lĩnh vực quốc phòng, an ninh và cơ yếu vào phạm vi điều chỉnh của Luật, với các lý do sau:

Đại biểu Nguyễn Thị Lệ Thủy- nguyên Phó Chủ nhiệm Ủy ban Khoa học Công nghệ và Môi trường của Quốc hội thảo luận tại hội trường, chiều 27/11.
Đại biểu Nguyễn Thị Lệ Thủy- nguyên Phó Chủ nhiệm Ủy ban Khoa học Công nghệ và Môi trường của Quốc hội thảo luận tại hội trường, chiều 27/11.

Thứ nhất, khắc phục “vùng trắng pháp lý” trong quốc phòng - qn ninh: Đại biểu cho rằng, mặc dù lĩnh vực an ninh, quốc phòng có tính chất đặc thù, nhưng việc hoàn thiện hành lang pháp lý để quản lý rủi ro của hệ thống AI trong lĩnh vực này là cực kỳ cần thiết. Điều này nhằm đảm bảo AI được sử dụng vì mục đích hòa bình, đảm bảo an ninh quốc gia và tuân thủ các nguyên tắc đạo đức.

Đặc biệt, đại biểu chỉ ra rằng, hiện nay Luật Trí tuệ nhân tạo là luật duy nhất điều chỉnh toàn diện về hoạt động của AI, bởi các quy định về AI trước đó trong Luật Công nghiệp công nghệ số đã bị hủy bỏ và chuyển một số nội dung quan trọng về luật này. Do đó, đại biểu khẳng định, các luật chuyên ngành thì không có luật nào điều chỉnh về trí tuệ nhân tạo trong lĩnh vực quốc phòng, an ninh và cơ yếu.

Việc không áp dụng luật AI trong lĩnh vực này có thể gây ra sự thiếu thống nhất trong quản lý và phát triển hệ thống AI giữa các lĩnh vực dân sự, quân sự, an ninh, quốc phòng, dẫn đến sự xuất hiện của những vùng trắng pháp lý. Hơn nữa, nguy cơ rủi ro do ứng dụng hệ thống AI là rất lớn và không phụ thuộc vào mục đích của việc nghiên cứu và phát triển hệ thống AI. Đại biểu ví dụ, một hệ thống AI có thể được nghiên cứu và phát triển vì mục đích dân sự nhưng việc ứng dụng của nó có thể mở rộng và gây ra nguy cơ, nguy hại đến an ninh, quốc phòng.

Thứ hai, cảnh báo về rủi ro nghiêm trọng từ AI đối với An ninh Quốc gia, đại biểu cảnh báo nhiều nguy cơ rủi ro cụ thể mà AI có thể gây ra đối với lĩnh vực quốc phòng, an ninh như:

Một là, trách nhiệm pháp lý và nhân đạo: Việc trao quyền quyết định sinh tử cho máy móc đối với các hệ thống vũ khí tự động sát thương mà không có sự can thiệp và kiểm soát đầy đủ của con người đặt ra câu hỏi lớn về trách nhiệm pháp lý và nhân đạo khi xảy ra sai sót hoặc thương vong không đáng có.

Hai là, sai sót thuật toán: Các thuật toán AI có thể được huấn luyện dựa trên dữ liệu không đầy đủ, dẫn đến các quy định quân sự hoặc an ninh làm gia tăng xung đột hoặc nhắm mục tiêu sai đối tượng, gây mâu thuẫn, xung đột trong xã hội.

Ba là, mục tiêu tấn công mạng: Hệ thống AI trong quân sự và an ninh có thể trở thành mục tiêu tấn công mạng. Một khi bị xâm nhập hoặc chiếm quyền điều khiển, chúng có thể bị vô hiệu hóa hoặc thậm chí quay ngược lại chống lại chính chủ sở hữu, gây ra những hậu quả nghiêm trọng.

Bốn là, mã độc từ mã nguồn mở: Sự phát triển mạnh mẽ của các mô hình AI mã nguồn mở không được kiểm duyệt có thể bị lợi dụng để tạo ra mã độc hoặc cung cấp hướng dẫn chi tiết về cách chế tạo chất nổ, vũ khí hoặc thực hiện các hành vi phạm pháp khác, đe dọa nghiêm trọng đến an ninh. Đặc biệt, nếu không có quy định điều chỉnh, Việt Nam có thể không có cơ chế để xử lý và ứng phó với các sản phẩm AI từ bên ngoài biên giới, được triển khai trong môi trường mạng hoặc hệ thống nội bộ, đe dọa chủ quyền, an ninh quốc gia.

Từ những phân tích trên, đại biểu đề nghị cần bổ sung, điều chỉnh đối với hoạt động AI trong lĩnh vực quốc phòng, an ninh và cơ yếu, cần bổ sung quy định mang tính nguyên tắc và giao cho các bộ chuyên ngành chịu trách nhiệm. Đại biểu cho rằng việc quy định như vậy đã có tiền lệ trong xây dựng pháp luật của Quốc hội, theo đó các luật chuyên ngành sẽ có những quy định điều chỉnh riêng đối với các chuyên ngành đó trong lĩnh vực an ninh, quốc phòng và cơ yếu. Nếu không có những quy định mang tính nguyên tắc về nghiên cứu, phát triển và ứng dụng AI trong lĩnh vực an ninh, quốc phòng và cơ yếu thì khi xác định đúng đối tượng, phạm vi và mực độ để áp dung nguyên tắc miễn trừ trách nhiệm dân sự, hình sự đối với người tham gia nghiên cứu, phát triển, thử nghiệm và ứng dụng AI trong lĩnh vực an ninh, quốc phòng và cơ yếu sẽ vô cùng khó khăn, rủi ro pháp lý cho các đối tượng này.

Thứ ba, làm rõ trách nhiệm của Nhà phát triển và Nhà cung cấp nước ngoài: đại biểu đồng tình với nguyên tắc quản lý theo mức độ rủi ro của hệ thống trí tuệ nhân tạo và phân theo 4 mức độ rủi ro: không chấp nhận được, rủi ro cao, rủi ro trung bình và rủi ro thấp. Tuy nhiên, việc quy định trách nhiệm của các nhóm đối tượng, nhà phát triển, nhà cung cấp, bên triển khai, người sử dụng theo từng cấp độ rủi ro của hệ thống trí tuệ nhân tạo thì chưa tương xứng, hầu như các quy định chỉ tập trung nhiều vào bên triển khai và người sử dụng mà chưa làm rõ vai trò của nhà phát triển và nhà cung cấp, nhất là các sản phẩm hệ thống trí tuệ nhân tạo được phát triển và cung cấp từ nước ngoài. Do đó đại biểu đề nghị cần làm rõ thêm vai trò, trách nhiệm của nhà phát triển, nhà cung cấp, nhất là đối với hệ thống trí tuệ nhân tạo có rủi ro cao và được phát triển, cung cấp từ nước ngoài.

HỒNG YẾN (ghi)

Đường dây nóng: 0909645589.

Phóng sự ảnh