Dự thảo Luật Trí tuệ nhân tạo quy định chế tài xử lý vi phạm và trách nhiệm bồi thường thiệt hại trong hoạt động trí tuệ nhân tạo (AI), với mức phạt tiền đối với vi phạm hành chính có thể lên tới 2 tỷ đồng đối với tổ chức và 1 tỷ đồng đối với cá nhân.
Tiếp tục Kỳ họp thứ 10, sáng 21/11, Bộ trưởng Khoa học và Công nghệ Nguyễn Mạnh Hùng, thừa ủy quyền của Thủ tướng Chính phủ trình bày Tờ trình về dự án Luật Trí tuệ nhân tạo.
Dự thảo luật gồm 8 chương, 36 điều quy định về thúc đẩy hoạt động nghiên cứu, phát triển, cung cấp, triển khai và sử dụng hệ thống trí tuệ nhân tạo; quyền, nghĩa vụ của tổ chức, cá nhân liên quan; quản lý nhà nước đối với hoạt động trí tuệ nhân tạo tại Việt Nam.
Phân loại và quản lý trí tuệ nhân tạo theo rủi ro
Luật Trí tuệ nhân tạo đặt con người làm trung tâm với nguyên tắc tối cao là trí tuệ nhân tạo (AI) phục vụ con người, không thay thế con người, con người giám sát trí tuệ nhân tạo ở những quyết định trọng yếu; trí tuệ nhân tạo phải minh bạch, trách nhiệm và an toàn...
Về các nội dung cơ bản, Bộ trưởng Nguyễn Mạnh Hùng cho biết, dự thảo Luật Trí tuệ nhân tạo quy định phân loại và quản lý hệ thống trí tuệ nhân tạo theo rủi ro.
Theo đó, hệ thống trí tuệ nhân tạo được phân loại theo 4 mức độ rủi ro, bao gồm: Rủi ro không chấp nhận được (hệ thống có khả năng gây tổn hại nghiêm trọng, không thể khắc phục); Rủi ro cao (hệ thống có thể gây thiệt hại đến tính mạng, sức khỏe, quyền, lợi ích hợp pháp); Rủi ro trung bình (hệ thống có nguy cơ gây nhầm lẫn, thao túng hoặc lừa dối người sử dụng); Rủi ro thấp (các trường hợp còn lại).
![]() |
| Bộ trưởng Khoa học và Công nghệ Nguyễn Mạnh Hùng. (Ảnh: DUY LINH) |
Nhà cung cấp phải tự phân loại hệ thống trước khi lưu hành và chịu trách nhiệm về kết quả phân loại. Đối với hệ thống rủi ro trung bình và cao, nhà cung cấp phải thông báo cho Bộ Khoa học và Công nghệ qua Cổng thông tin một cửa. Cơ quan có thẩm quyền được quyền kiểm tra, đánh giá lại việc phân loại.
Ngoài ra, dự thảo Luật cũng quy định trách nhiệm minh bạch, gắn nhãn và giải trình. Cụ thể, bên triển khai phải thông báo rõ và gắn nhãn đối với nội dung tạo ra hoặc chỉnh sửa có yếu tố giả mạo, mô phỏng người thật (deepfake) có thể gây hiểu lầm, hoặc nội dung do trí tuệ nhân tạo tạo ra nhằm mục đích truyền thông, quảng cáo.
Về quản lý theo rủi ro, hệ thống có mức độ rủi ro không chấp nhận được bị cấm phát triển, cung cấp, triển khai hoặc sử dụng dưới bất kỳ hình thức nào. Danh mục cấm bao gồm hệ thống dùng cho hành vi bị pháp luật nghiêm cấm, sử dụng yếu tố giả mạo để lừa dối, thao túng gây tổn hại nghiêm trọng, lợi dụng điểm yếu của nhóm người dễ bị tổn thương (trẻ em, người cao tuổi...), hoặc tạo nội dung giả mạo gây nguy hại nghiêm trọng đến an ninh quốc gia.
Hệ thống rủi ro cao phải được đánh giá sự phù hợp trước khi lưu hành hoặc đưa vào sử dụng. Việc đánh giá có thể theo hình thức chứng nhận sự phù hợp (do tổ chức được chỉ định thực hiện) hoặc giám sát sự phù hợp (nhà cung cấp tự đánh giá). Thủ tướng Chính phủ quy định Danh mục hệ thống trí tuệ nhân tạo có rủi ro cao tương ứng với từng hình thức đánh giá.
Hệ thống rủi ro trung bình phải bảo đảm minh bạch, gắn nhãn.
Phạt đến 2% doanh thu của năm trước liền kề của tổ chức nếu vi phạm nghiêm trọng
Về thanh tra, kiểm tra và xử lý vi phạm, dự thảo Luật quy định các cơ chế giám sát, chế tài xử lý và trách nhiệm bồi thường thiệt hại.
Theo đó, cơ quan quản lý nhà nước có trách nhiệm kiểm tra việc tuân thủ pháp luật về trí tuệ nhân tạo. Khi có yêu cầu thanh tra, kiểm tra (hoặc yêu cầu của Tòa án, Trọng tài), các bên liên quan có nghĩa vụ cung cấp hồ sơ kỹ thuật, nhật ký lưu vết và dữ liệu huấn luyện để xác định nguyên nhân vi phạm hoặc phân định trách nhiệm.
Việc cung cấp thông tin này phải tuân thủ quy định về bảo vệ bí mật nhà nước, bí mật kinh doanh và dữ liệu cá nhân. Kết luận thanh tra và quyết định xử lý vi phạm phải được công khai trên Cổng thông tin điện tử một cửa, trừ các nội dung thuộc bí mật.
![]() |
| Quang cảnh phiên họp sáng 21/11. (Ảnh: DUY LINH) |
Bộ trưởng Nguyễn Mạnh Hùng cũng nêu rõ, tổ chức, cá nhân vi phạm quy định của Luật này sẽ bị xử lý kỷ luật, xử phạt vi phạm hành chính hoặc truy cứu trách nhiệm hình sự; nếu gây thiệt hại thì phải bồi thường theo pháp luật dân sự.
Nội dung then chốt là thiệt hại do hệ thống trí tuệ nhân tạo có rủi ro cao gây ra được xác định là thiệt hại do nguồn nguy hiểm cao độ gây ra. Theo đó, nhà cung cấp và bên triển khai hệ thống phải chịu trách nhiệm bồi thường kể cả khi không có lỗi, trừ các trường hợp được miễn trừ theo Bộ luật Dân sự.
Trường hợp nhiều chủ thể cùng tham gia (phát triển, cung cấp, triển khai) thì phải liên đới bồi thường; trách nhiệm bồi thường được xác định dựa trên mức độ kiểm soát thực tế, khả năng dự báo và các biện pháp quản lý rủi ro mà mỗi bên đã áp dụng.
Chính phủ đề xuất mức phạt tiền tối đa đối với vi phạm hành chính về trí tuệ nhân tạo là 2 tỷ đồng đối với tổ chức và 1 tỷ đồng đối với cá nhân. Đối với các hành vi vi phạm nghiêm trọng, mức phạt tiền tối đa có thể lên đến 2% doanh thu của năm trước liền kề của tổ chức đó.
Ngoài các nội dung trên, dự thảo Luật Trí tuệ nhân tạo còn quy định về phát triển hạ tầng và bảo đảm chủ quyền trí tuệ nhân tạo quốc gia; ứng dụng trí tuệ nhân tạo, phát triển hệ sinh thái đổi mới sáng tạo và nguồn nhân lực; quản lý nhà nước về trí tuệ nhân tạo; và đặc biệt là đạo đức và trách nhiệm trong hoạt động trí tuệ nhân tạo.
Cụ thể, theo dự thảo Luật, Chính phủ được giao ban hành Khung đạo đức Trí tuệ nhân tạo quốc gia trên cơ sở các nguyên tắc bảo đảm an toàn, không gây hại bảo đảm tiếp cận bình đẳng và thúc đẩy hạnh phúc con người. Khung này được rà soát và cập nhật định kỳ tối thiểu 3 năm một lần.
Theo Văn Toản/nhandan.vn




Thông tin bạn đọc
Đóng Lưu thông tin