Cần hoàn thiện hành lang pháp lý để AI phát triển nhưng không tạo rủi ro cho xã hội

11:47, 22/11/2025

Sáng 21/11, Quốc hội tiến hành thảo luận ở Tổ về dự thảo Luật Trí tuệ nhân tạo (AI). Các ý kiến tập trung vào phạm vi điều chỉnh của Luật, chính sách phát triển AI của Nhà nước, cơ chế phân loại và kiểm soát rủi ro và trách nhiệm đạo đức trong việc sử dụng AI.


Đại biểu Nguyễn Thị Lệ Thủy- nguyên Phó Chủ nhiệm Ủy ban Khoa học Công nghệ và Môi trường của Quốc hội thảo luận tại Tổ 13 ngày 21/11/2025.
Đại biểu Nguyễn Thị Lệ Thủy- nguyên Phó Chủ nhiệm Ủy ban Khoa học Công nghệ và Môi trường của Quốc hội thảo luận tại Tổ 13 ngày 21/11/2025.

Phát biểu tại phiên thảo luận ở Tổ 13, đại biểu Nguyễn Thị Lệ Thủy- nguyên Phó Chủ nhiệm Ủy ban Khoa học Công nghệ và Môi trường của Quốc hội, Đoàn ĐBQH tỉnh Vĩnh Long bày tỏ sự tán thành đối với dự thảo Luật Trí tuệ nhân tạo, đánh giá cao việc cơ quan soạn thảo và Ủy ban Khoa học, Công nghệ và Môi trường đã tiếp thu, chỉnh lý toàn diện dự thảo Luật. Nhiều nội dung từng được đại biểu góp ý tại phiên thẩm tra trước đó đã được rà soát, chỉnh sửa theo hướng “tinh hơn, rõ hơn và cân bằng hơn” giữa hai trụ cột: quản lý rủi ro và thúc đẩy phát triển AI. Trên thế giới hiện nay có rất ít quốc gia xây dựng Luật về AI, trong đó Luật AI của EU thiên về quản lý rủi ro; Luật của Nhật Bản chỉ thúc đẩy phát triển AI và Luật của Hàn Quốc lại dung hòa giữa thúc đẩy phát triển và kiểm soát rủi ro. Việt Nam đã lựa chọn mô hình quản lý theo cách tiếp cận của Hàn Quốc, tức là vừa quản lý thúc đẩy phát triển, vừa quản lý theo mức độ rủi ro.

Đại biểu đánh giá cao việc tiếp thu, hoàn thiện dự thảo Luật AI sau phiên họp thẩm tra của Ủy ban Khoa học, Công nghệ và Môi trường. Theo đó, đại biểu cho rằng, xây dựng Luật AI được đánh giá là cực kỳ khó khăn, bởi AI là một lĩnh vực “không cầm nắm được, không nghĩ ra được, không tưởng tượng được là phát triển tới đâu, hình hài như thế nào”. Đại biểu nhận định, nếu khung chính sách quá chặt sẽ bó buộc không cho AI phát triển, nhưng nếu quá rộng thì không thể kiểm soát nổi rủi ro, lúc đó “có luật cũng như không”. Đại biểu cho rằng dự thảo đã tìm được điểm cân bằng hợp lý, không quá ôm đồm nhưng cũng không quá buông lỏng. Đại biểu đánh giá cao Bộ Khoa học và Công nghệ vì đã đưa ra một bộ khung pháp lý trong bối cảnh kinh nghiệm quốc tế còn hạn chế. Cách tiếp cận trong xây dựng dự thảo Luật là tập trung cho những chính sách thúc đẩy phát triển mang tính khung, linh hoạt để Chính phủ ban hành những quy định chi tiết kịp thời thích ứng nhanh với những biến động và phát triển nhanh của AI trong tương lai.

Bên cạnh đó, đại biểu nêu lên quan ngại sâu sắc về các cơ chế quản lý rủi ro và xử lý vi phạm, những lỗ hổng trong quản lý rủi ro và xử phạt.  Mặc dù tán thành cao với cách bố cục và tiếp cận của dự thảo, đại biểu cũng nhấn mạnh một số vấn đề cần rà soát thêm như:

Một là, phạm vi điều chỉnh: Dự thảo quy định chỉ điều chỉnh toàn diện từ phát triển, nghiên cứu, cung cấp, triển khai, sử dụng và quản lý đối với các lĩnh vực, ngoại trừ lĩnh vực quốc phòng, an ninh, tình báo, cơ yếu. Việc loại trừ lĩnh vực AI trong an ninh, quốc phòng, cơ yếu chưa được quy định trong bất cứ văn bản nào. Việc loại trừ ra khỏi phạm vi điều chỉnh của Luật không có nghĩa là AI không tồn tại và không được áp dụng trong các lĩnh vực này, nếu loại trừ ra khỏi phạm vi điều chỉnh là đã bỏ ngỏ lĩnh vực cực kỳ quan trọng và những tác hại của AI trong các lĩnh vực này cũng cực kỳ nghiêm trọng. Trong khi Bộ Khoa học và Công nghệ được giao thay mặt Chính phủ quản lý toàn diện về AI. Do đó, đại biểu đề nghị phân công cơ quan Nhà nước tương ứng như Bộ Công an, Bộ Quốc phòng quản lý về AI trong lĩnh vực quốc phòng, an ninh, cơ yếu.

Hai là, vấn đề tự đánh giá rủi ro và quản lý hậu kiểm. Với cách tiếp cận quản lý theo mực độ rủi ro của hệ thống AI, theo đó rủi ro càng cao quản lý càng nghiêm ngặt dự thảo Luật đã quy định các cấp độ quản lý tương ứng cho từng cấp độ rủi ro của hệ thống AI. Ngoại trừ hệ thống trí tuệ nhân tạo có rủi ro không chấp nhận được, đối với 3 mức độ rủi ro còn lại (thấp trung bình và cao), dự thảo Luật giao cho nhà phát triển/nhà cung cấp tự đánh giá, phân loại mức độ rủi ro do mình phát triển. Việc quy định như vậy sẽ dễ dẫn đến xu hướng các nhà phát triển, nhà cung cấp sẽ đánh giá mức độ rủi ro của hệ thống AI do mình phát triển ra ở mức thấp hơn mức rủi ro thật sự của hệ thống nhằm thụ hưởng việc quản lý ít nghiêm ngặt hơn, điều mà khiến sản phẩm mất đi tính mới, tính kịp thời trong tiếp cận thị trường và thương mại hóa, điều đó cũng khiến sản phẩm dễ bị sao chép, bắt chước. Đại biểu đề nghị cần có cơ chế để Nhà nước nắm được thông tin về hệ thống AI mới hình thành ngay từ đầu, bất kể mức độ rủi ro là gì, làm cơ sở để kiểm tra kịp thời, ngăn ngừa, chứ không thể đợi đến khi sự cố xảy ra rồi Nhà nước mới can thiệp (quá chậm so với tốc độ phát triển của AI).

Ba là, với cách tiếp cận quản lý theo mức độ rủi ro, hệ thống AI được chia theo 4 cấp độ, đó là hệ thống AI có rủi ro không chấp nhận được, rủi ro cao, rủi ro trung bình và rủi ro thấp. Nhưng tại Điều 15 xuất hiện mô hình trí tuệ nhân tạo đa dụng và Điều 16 quy định về mô hình trí tuệ nhân tạo đa dụng có rủi ro hệ thống. Chưa rõ hai mô hình AI này thuộc vào mức độ rủi ro nào trong bậc thang 4 mức để có thể áp dụng các hình thức quản lý tương ứng. Theo nội dung quy định của hai Điều này thì mô hình AI còn phải được phân loại theo mục đích sử dụng và loại rủi ro.

Bốn là, mâu thuẫn trong quy định tại Điều 14, Điều 16 với Điều 11: Theo đó, Điều 11 quy định về hệ thống AI có rủi ro không chấp nhận được là hệ thống được thiết kế, phát triển hoặc triển khai nhằm mục đích thực hiện các hành vi bị  pháp luật nghiêm cấm. Nhưng tại Điều 14 quản lý hệ thống trí tuệ nhân tạo có rủi ro trung bình và thấp lại quy định người sử dụng hệ thống AI rủi ro trung bình và thấp có trách nhiệm không sử dụng hệ thống để thực hiện các hành vi trái pháp luật hoặc trái đạo đức xã hội. Tương tự, tại khoản 5 Điều 16 quy định “Cơ quan quản lý nhà nước về trí tuệ nhân tạo có quyền yêu cầu áp dụng biện pháp khắc phục, tạm dừng hoặc đình chỉ việc cung cấp hoặc sử dụng mô hình khi có căn cứ xác định mô hình có nguy cơ gây thiệt hại nghiêm trọng hoặc vi phạm pháp luật”. Một mâu thuẫn khác được đại biểu chỉ ra đó là cơ quan quản lý nhà nước về trí tuệ nhân tạo có quyền yêu cầu áp dụng biện pháp khắc phục tạm dừng hoặc đình chỉ việc cung cấp sử dụng mô hình khi có căn cứ xác định mô hình có nguy cơ gây thiệt hại nghiêm trọng hoặc vi phạm pháp luật. Với những quy định về biện pháp quản lý như vậy cũng chưa phù hợp với cách tiếp cận quản lý theo mức độ rủi ro của hệ thống trí tuệ nhân tạo tại Điều 11.

Năm là, mức phạt tiền thiếu căn cứ khoa học: Tại khoản 2 Điều 30 dự thảo luật quy định “Đối với hành vi vi phạm không quy định tại Điều 11 của Luật này thì mức phạt tiền tối đa là 2.000.000.000 đồng (hai tỷ đồng) đối với tổ chức; cá nhân thực hiện cùng hành vi vi phạm thì mức phạt tiền tối đa bằng một phần hai mức phạt tiền đối với tổ chức”. Đại biểu cho rằng, quy định mức phạt tối đa 2 tỷ đồng đối với hành vi vi phạm không thuộc Điều 11 (những hành vi bị cấm) là chưa hợp lý, thiếu thực tiễn và không có căn cứ khoa học. Việc ấn định một mức phạt tiền theo giá trị tuyệt đối tương đối lớn cho các lỗi vi phạm hành chính chưa xác định được mức độ của lỗi vi phạm, phạm vi ảnh hưởng và hậu quả tương ứng là thiếu khả thi. Đại biểu đặt vấn đề mức phạt này có phù hợp cho các lỗi như: không thông báo về mức độ rủi ro của hệ thống AI lên cổng thông tin về AI hoặc đánh giá thấp mức độ rủi ro của hệ thống AI do mình phát triển hay không? Vì vậy, đại biểu đề nghị dẫn chiếu pháp luật về xử lý vi phạm hành chính, hoặc giao thẩm quyền Chính phủ quy định chi tiết mức phạt này, tùy theo căn cứ và mức độ vi phạm, thay vì đưa ra một khung 2 tỷ đồng cứng nhắc như trong dự thảo luật...

HỒNG YẾN (ghi)

Đường dây nóng: 0909645589.

Phóng sự ảnh