Hoàn thiện 9 nhóm vấn đề cốt lõi góp phần để Luật Trí tuệ nhân tạo Việt Nam minh bạch và khả thi

19:44, 27/11/2025

Ngày 27/11, tham gia phát biểu thảo luận tại hội trường về dự án Luật Trí tuệ nhân tạo (TTNT), đại biểu Thạch Phước Bình- Tỉnh ủy viên, Phó Trưởng đoàn chuyên trách Đoàn đại biểu Quốc hội tỉnh Vĩnh Long đã nêu 9 nhóm vấn đề lớn cần tiếp tục hoàn thiện nhằm bảo đảm tính minh bạch, đồng bộ và khả thi trong thực thi luật.

 

Đại biểu Thạch Phước Bình (Ảnh: media.quochoi.vn)
  Đại biểu Thạch Phước Bình (Ảnh: media.quochoi.vn)

Thứ nhất, về phạm vi điều chỉnh và đối tượng áp dụng (Điều 1 và Điều 2): Đại biểu cho rằng dự thảo đang xác lập một phạm vi điều chỉnh rất rộng, bao trùm toàn bộ chuỗi giá trị của AI từ nghiên cứu, phát triển thuật toán, đào tạo mô hình, cung cấp đến triển khai và sử dụng. Đây là cách tiếp cận đúng và cập nhật theo thông lệ quốc tế. Tuy nhiên, một số điểm cần được làm rõ hơn.

Một là, quy định “không áp dụng đối với hệ thống AI sử dụng riêng cho quốc phòng - an ninh” là rất quan trọng, nhưng lại chưa có tiêu chí xác định thế nào là “sử dụng riêng”. Theo đó, dự thảo cần làm rõ đặc tính riêng có của hệ thống thuộc QP-AN và bổ sung cơ chế kiểm soát khi các hệ thống này được chuyển sang mục đích dân sự - như khoản 3 Điều 1 đã quy định.

Hai là, dự thảo áp dụng đối với cả tổ chức nước ngoài cung cấp mô hình AI vào Việt Nam. Tuy nhiên, cơ chế quản lý đối với trường hợp doanh nghiệp nước ngoài không có pháp nhân trong nước vẫn còn bỏ ngỏ. Đề nghị Ban soạn thảo bổ sung yêu cầu có đại diện pháp lý tại Việt Nam đối với mô hình đa dụng hoặc mô hình rủi ro cao được cung cấp xuyên biên giới.

Thứ hai, về giải thích từ ngữ (Điều 3): Theo đại biểu, Điều 3 đóng vai trò “ngôn ngữ chung” của toàn bộ Luật AI. Tuy nhiên, hiện nhiều thuật ngữ còn định tính và thiếu tiêu chí kỹ thuật rõ ràng. Các khái niệm như “hệ thống AI rủi ro cao”, “rủi ro hệ thống”, “khả năng kiểm soát của con người”, “dữ liệu dùng chung” đều chưa có tiêu chí đo lường cụ thể. Điều này có thể dẫn đến việc mỗi cơ quan, mỗi doanh nghiệp hiểu theo một cách, làm phát sinh tranh chấp trong thực tế.

Bên cạnh đó, khái niệm mô hình AI đa dụng - GPAI - hiện mới mô tả sơ bộ, trong khi đây là nhóm công nghệ có ảnh hưởng sâu rộng nhất. Dự thảo nên tham khảo định nghĩa của đạo luật trí tuệ nhân tạo của Liên minh Châu Âu, đồng thời bổ sung các dấu hiệu nhận biết như khả năng sinh nội dung, năng lực suy luận, phạm vi ứng dụng đa lĩnh vực và mức độ tự học.

Ngoài ra, để đảm bảo tính minh bạch và chống lạm dụng deepfake, dự thảo cần bổ sung các định nghĩa mới như “nội dung giả lập”, “đầu ra do AI tạo ra”, “tương tác với AI”. Đây là những khái niệm quan trọng phục vụ cho yêu cầu gắn nhãn và cảnh báo người dùng.

Thứ ba, về phân loại rủi ro và danh mục hệ thống AI rủi ro cao (Điều 11 và Điều 12): Đại biểu Thạch Phước Bình đánh giá phân loại rủi ro là “linh hồn” của Luật Trí tuệ nhân tạo. Tuy nhiên, hiện dự thảo vẫn chưa đưa ra tiêu chí phân loại mang tính định lượng. Danh mục hệ thống AI “rủi ro cao” đang được quy định tương đối rộng, bao gồm cả các lĩnh vực mà thực tiễn chưa xuất hiện rủi ro đáng kể. Điều này có thể tạo ra “gánh nặng tuân thủ” không cần thiết, đặc biệt với doanh nghiệp nhỏ và vừa. Đại biểu đề nghị:

Một là, rà soát lại danh mục rủi ro cao, theo hướng chỉ tập trung vào những hệ thống có thể gây tác động lớn tới quyền con người, quyền riêng tư, sức khỏe, tài chính và an toàn xã hội.

Hai là, thiết lập cơ chế cập nhật linh hoạt danh mục này trên cơ sở tham vấn chuyên gia, hiệp hội ngành hàng và tổ chức nghiên cứu.

Ba là, gắn tiêu chí rủi ro vào các đặc tính kỹ thuật của mô hình như tính tự động, khả năng tự học, tính không dự đoán được và quy mô sử dụng.

Thứ tư, về nghĩa vụ của các chủ thể trong chuỗi AI (từ Điều 13 đến Điều 24): Theo đại biểu, một điểm dễ phát sinh tranh chấp là trách nhiệm của các chủ thể trong chuỗi giá trị AI: nhà phát triển, nhà cung cấp và bên triển khai. Hiện 3 nhóm chủ thể này đang được mô tả nhưng chưa được phân định rạch ròi. Việc không xác định rõ trách nhiệm của từng bên sẽ gây khó khăn khi xử lý sự cố, bồi thường thiệt hại hoặc giải quyết khiếu nại của người dân. Đại biểu kiến nghị: Làm rõ nhà phát triển là chủ thể tạo ra mô hình và thuật toán. Nhà cung cấp là bên thương mại hóa hoặc tích hợp mô hình. Bên triển khai là bên đưa mô hình vào môi trường thực tế, sử dụng với dữ liệu thật và tương tác với người dùng. Việc phân định đúng vai trò sẽ là cơ sở để xác định nghĩa vụ minh bạch, giải trình và trách nhiệm dân sự.

Thứ năm, về dữ liệu, quyền riêng tư và bảo vệ người dùng (từ Điều 14 đến Điều 18): Đại biểu xác định dữ liệu là “nhiên liệu” của AI, nhưng các quy định hiện hành chưa đồng bộ với dự thảo Luật Bảo vệ dữ liệu cá nhân. Cần làm rõ mức độ xử lý cho phép đối với dữ liệu nhạy cảm, dữ liệu trẻ em và dữ liệu sinh trắc học. Đồng thời, cần bổ sung nghĩa vụ đánh giá tác động dữ liệu (DPIA) khi triển khai AI rủi ro cao.

Đối với người dùng AI, dự thảo Luật đã đề cập một số quyền cơ bản, nhưng vẫn thiếu các quyền quan trọng theo chuẩn quốc tế như quyền từ chối quyết định hoàn toàn tự động hoặc quyền yêu cầu giải thích. Đây là những quyền rất quan trọng để giúp người dân không bị tổn thương bởi các quyết định dựa trên AI trong lĩnh vực tài chính, bảo hiểm, y tế hoặc tuyển dụng lao động.

Thứ sáu, về minh bạch, gắn nhãn và trách nhiệm đối với nội dung do AI tạo ra (Điều 9): Đại biểu cho biết deepfake, giả mạo tiếng nói, hình ảnh, video… đã gây ra nhiều vụ việc ảnh hưởng nghiêm trọng đến an ninh thông tin và quyền riêng tư. Điều 9 của dự thảo quy định việc gắn nhãn đầu ra AI, nhưng vẫn cần làm rõ: Những loại nội dung nào bắt buộc phải gắn nhãn? Mức độ gắn nhãn như thế nào để vừa bảo vệ người dùng vừa không làm giảm trải nghiệm số? Trách nhiệm của các nền tảng mạng xã hội trong phát hiện và gỡ bỏ nội dung giả mạo. Việc thiết kế cơ chế gắn nhãn chặt chẽ nhưng linh hoạt là yêu cầu cấp thiết.

Thứ bảy, về đánh giá sự phù hợp, kiểm định và chứng nhận AI (từ Điều 25 đến Điều 29): Hệ thống đánh giá sự phù hợp là một trong những nội dung mang tính kỹ thuật cao nhất của Luật. Tuy nhiên, đại biểu cho rằng nếu thiết kế cơ chế “tiền kiểm” quá nặng, chúng ta có thể vô tình cản trở đổi mới sáng tạo. Do đó, đại biểu đề nghị: Chỉ yêu cầu chứng nhận đối với các hệ thống rủi ro cao. Cho phép tự đánh giá đối với các hệ thống rủi ro thấp và trung bình. Đảm bảo quy trình đánh giá phải rõ ràng, minh bạch, tránh phát sinh cơ chế “xin – cho”.

Thứ tám, về chính sách thúc đẩy AI - sandbox - dữ liệu mở - hạ tầng tính toán (từ Điều 34 đến Điều 38): Theo đại biểu Thạch Phước Bình, nhóm chính sách từ Điều 34 đến Điều 38 của Dự thảo Luật Trí tuệ nhân tạo giữ vai trò quyết định trong việc biến AI trở thành động lực phát triển mới của đất nước. Tuy nhiên, nội dung hiện nay còn tương đối sơ lược, trong khi thực tiễn đòi hỏi các chính sách mạnh mẽ và cụ thể hơn. Đại biểu xin đề xuất 4 điểm trọng tâm.

Một là, cơ chế sandbox cần được thiết kế rõ ràng hơn, ưu tiên triển khai trong các lĩnh vực y tế, giáo dục, tài chính và hành chính công, với thời hạn thử nghiệm, tiêu chí lựa chọn doanh nghiệp và cơ chế giám sát minh bạch.

Hai là, cần có chính sách hỗ trợ doanh nghiệp nhỏ và startup tiếp cận hạ tầng tính toán quốc gia - đặc biệt là bộ xử lý đồ họa (GPU) và siêu máy tính - thông qua cơ chế trợ giá, phiếu hỗ trợ hoặc hạn mức miễn phí, bởi đây là rào cản lớn nhất hiện nay.

Ba là, xây dựng kho dữ liệu mở quốc gia, dữ liệu dùng chung và cơ chế chia sẻ dữ liệu công theo tầng truy cập, bảo đảm vừa phục vụ nghiên cứu - đổi mới, vừa tuân thủ nghiêm ngặt yêu cầu bảo mật và ẩn danh hóa.

Bốn là, cần có chính sách đặc thù để thu hút và giữ chân nhân tài AI, từ đào tạo đại học - sau đại học, đến thu hút chuyên gia quốc tế và hỗ trợ nhóm nghiên cứu mạnh. Nếu 4 nội dung này được hoàn thiện mạnh mẽ, Luật AI sẽ không chỉ quản lý rủi ro mà thực sự trở thành động lực thúc đẩy hệ sinh thái AI Việt Nam phát triển bền vững.

Thứ chín, về điều khoản thi hành và lộ trình chuyển tiếp: Theo dự thảo, các hệ thống AI đang vận hành trước ngày Luật có hiệu lực chỉ có 12 tháng để tuân thủ đầy đủ quy định. Đại biểu cho rằng, khoảng thời gian này là quá ngắn và khó khả thi đối với cả doanh nghiệp nhà nước, tư nhân và startup - khởi nghiệp. Vì vậy cần xem xét lộ trình thực hiện theo 3 giai đoạn: (i) Giai đoạn 1: Áp dụng ngay với AI rủi ro cao. Giai đoạn 2: Áp dụng với AI rủi ro trung bình sau 18 - 24 tháng. Giai đoạn 3: Áp dụng toàn diện sau 36 tháng. Lộ trình phân tầng này sẽ giúp doanh nghiệp có đủ thời gian thích ứng và bảo đảm Luật đi vào cuộc sống một cách bền vững.

Kết thúc phần thảo luận, đại biểu nhấn mạnh rằng Dự thảo Luật Trí tuệ nhân tạo là một đạo luật có ý nghĩa đặc biệt quan trọng, đặt nền móng cho hành lang pháp lý điều chỉnh AI trong nhiều thập kỷ tới. Việc tiếp tục hoàn thiện dự thảo không chỉ giúp nâng cao tính minh bạch và khả thi khi áp dụng, mà còn bảo đảm đạo luật được xây dựng theo hướng hiện đại, phù hợp với trình độ phát triển kinh tế - công nghệ của Việt Nam, đồng thời hài hòa với chuẩn mực và xu hướng quốc tế.

KIẾN QUỐC (ghi)

Đường dây nóng: 0909645589.

Phóng sự ảnh