Chính phủ Singapore ngày 22/1 đã công bố Khung quản trị nhằm khai thác hiệu quả lợi ích tác nhân AI mang lại, đồng thời kiểm soát, giảm thiểu những rủi ro và sự cố khó lường.
Theo Cơ quan Phát triển Truyền thông và Công nghệ Thông tin Singapore (IMDA), việc sử dụng tác nhân AI ngày càng phổ biến, giúp các cơ quan, tổ chức tự động hóa các công việc có tính lặp lại, để nhân viên tập trung cho các hoạt động mang lại giá trị cao hơn. Tuy nhiên, tác nhân AI có thể truy cập nhiều dữ liệu nhạy cảm, vượt thẩm quyền cấp phép và hành động khó lường, tiềm ẩn nhiều yếu tố rủi ro.
![]() |
| Ảnh minh họa: IBP. |
Do đó, Cơ quan IMDA đã công bố Khung quản trị mô hình AI dành riêng cho tác nhân AI nhằm ứng phó trước các nguy cơ này. Nội dung trọng tâm là đặt ra những giới hạn cụ thể cho tác nhân AI khi truy cập hệ thống và công cụ sử dụng, chỉ được cấp phép truy cập các thông tin cần thiết để thực hiện nhiệm vụ được giao. Ví dụ, tác nhân AI hỗ trợ lập trình không cần được cấp quyền tìm kiếm nội dung trên mạng.
Cùng với đó, nội dung Khung quản trị yêu cầu phải thiết lập các cơ chế kiểm soát và can thiệp tác nhân AI kịp thời đối với các hành động mang tính không thể đảo ngược, đặc biệt là xóa dữ liệu vĩnh viễn. Khung quản trị cũng nhấn mạnh mặc dù tác nhân AI trực tiếp thực hiện nhiều công việc tự động song các cá nhân và tổ chức liên quan vẫn là bên chịu trách nhiệm trong mọi trường hợp.
Trả lời báo giới bên lề Diễn đàn Kinh tế Thế giới (WEF), Bộ trưởng Phát triển Kỹ thuật số và Thông tin Singapore Josephine Teo cho biết việc công bố Khung quản trị mô hình AI dành riêng cho tác nhân AI có ý nghĩa quan trọng, nhất là nâng cao nhận thức và tuân thủ các hướng dẫn về tác nhân AI đối với các tập đoàn, công ty nước ngoài cung cấp các dịch vụ liên quan tại Singapore.
Trong một diễn biến liên quan, năm 2025 đã từng ghi nhận sự cố tác nhân AI do công ty Replit của Mỹ cung cấp hành động vượt tầm kiểm soát, dẫn tới xóa dữ liệu của một khách hàng sử dụng dịch vụ, gây thiệt hại nhất định. Công ty Replit sau đó đã thừa nhận sự cố, cam kết hoàn tiền và tăng cường cơ chế kiểm soát. Sự cố này được xem là lời cảnh báo đối với các tổ chức và doanh nghiệp trong sử dụng tác nhân AI, khi việc thiếu các cơ chế giám sát và kiểm soát phù hợp có thể dẫn tới những hậu quả nghiêm trọng.
Theo vov.vn



Thông tin bạn đọc
Đóng Lưu thông tin