Khung quản lý rủi ro của NIST kỳ vọng cải thiện độ tin cậy của trí tuệ nhân tạo
Khung Quản lý rủi ro trí tuệ nhân tạo (AI RMF 1.0) tuân thủ chỉ đạo đối với NIST trong việc phát triển khuôn khổ. AI RMF được xây dựng trong bối cảnh các công nghệ AI tiếp tục phát triển và được các tổ chức ứng dụng ở các mức độ và năng lực khác nhau phục vụ tiêu dùng và xã hội. AI RMF kỳ vọng người dùng có thể hưởng lợi từ các công nghệ AI đồng thời được bảo vệ khỏi những tác hại tiềm ẩn của nó.
So với phần mềm truyền thống, AI tiềm ẩn khá nhiều rủi ro khác nhau. Các hệ thống AI được đào tạo dựa trên dữ liệu có thể thay đổi theo thời gian, đôi khi đột ngột và bất ngờ, ảnh hưởng phức tạp đến chính những hệ thống này. Các hệ thống AI cũng có bản chất là “kỹ thuật xã hội”, nghĩa là chúng bị ảnh hưởng bởi biến động xã hội và hành vi của con người. Rủi ro AI có thể xuất hiện từ sự tương tác phức tạp của các yếu tố kỹ thuật và xã hội này, ảnh hưởng đến người dùng trong các tình huống khác nhau, từ trải nghiệm của họ với chatbot trực tuyến đến kết quả của động cơ tìm việc làm và khoản vay tiêu dùng...
Khung AI RMF trang bị cho các tổ chức những lựa chọn về AI và cân nhắc các rủi ro từ các góc độ và cách tiếp cận khác nhau. Nó thúc đẩy sự thay đổi trong văn hóa doanh nghiệp, khuyến khích các tổ chức tiếp cận AI với cách giao tiếp thông minh, đo lường và giám sát rủi ro AI cũng như lường trước các tác động tích cực và tiêu cực tiềm ẩn của nó.
Khuôn khổ mới sẽ “thúc đẩy sự đổi mới và tăng trưởng của AI đồng thời thúc đẩy thay vì hạn chế hoặc gây tổn hại quyền công dân, quyền tự do dân sự và bình đẳng cho tất cả mọi người”, Thứ trưởng Bộ Thương mại Don Graves chia sẻ.
AI RMF cung cấp một quy trình linh hoạt, có cấu trúc và có thể đo lường được, cho phép các tổ chức giải quyết các rủi ro AI. Tuân thủ quy trình quản lý rủi ro AI này có thể tối đa hóa lợi ích của công nghệ AI đồng thời giảm khả năng tác động tiêu cực đến các cá nhân, nhóm, cộng đồng, tổ chức và xã hội.
Theo Thứ trưởng Bộ Tiêu chuẩn và Công nghệ kiêm Giám đốc NIST Laurie E. Locascio, khuôn khổ này là một phần trong nỗ lực lớn của NIST nhằm tạo niềm tin vào các công nghệ AI cũng là điều cần thiết để công nghệ này được xã hội chấp nhận rộng rãi.
Locascio cho biết: “Khung Quản lý Rủi ro AI có thể giúp các doanh nghiệp và tổ chức khác nhau trong mọi lĩnh vực và với quy mô khác nhau tăng cường các phương pháp quản lý rủi ro AI của họ. Nó cung cấp một cách mới để thích ứng với thực tiễn và hướng dẫn khả thi để vận hành AI đáng tin cậy và có trách nhiệm. Chúng tôi hy vọng AI RMF sẽ giúp thúc đẩy sự phát triển của các tiêu chuẩn và các ứng dụng thực tiễn tốt nhất”.
Khung AI RMF được kết cấu thành hai phần. Phần đầu tiên đề cập về phương pháp giúp các tổ chức có thể định hình các rủi ro liên quan đến AI và phác thảo các đặc điểm của hệ thống AI đáng tin cậy. Phần thứ hai là cốt lõi của Khung, mô tả bốn chức năng cụ thể điều hành, lập bản đồ, đo lường và quản lý để giúp các tổ chức giải quyết các rủi ro của hệ thống AI trong thực tế. Các chức năng này có thể được áp dụng trong các trường hợp sử dụng theo ngữ cảnh cụ thể và ở bất kỳ giai đoạn nào của vòng đời AI.
Hợp tác chặt chẽ với cả khu vực tư nhân và công cộng, NIST đã phát triển AI RMF trong 18 tháng. Tài liệu phản ánh trên 400 bộ nhận xét chính thức mà NIST nhận được từ hơn 240 tổ chức khác nhau về các phiên bản dự thảo của Khung.
NIST cũng đồng thời phát hành Playbook AI RMF, gợi ý các cách điều hướng và sử dụng Khung. Trong thời gian tới NIST sẽ làm việc với cộng đồng AI để cập nhật Khung định kỳ và hoan nghênh các đề xuất bổ sung và cải tiến bất cứ cho Playbook.
Ngoài ra, NIST có kế hoạch ra mắt Trung tâm tài nguyên AI đáng tin cậy và có trách nhiệm để giúp các tổ chức đưa AI RMF 1.0 vào thực tế. Cơ quan này cũng khuyến khích các tổ chức phát triển và chia sẻ hồ sơ về cách họ sẽ sử dụng Khung trong bối cảnh cụ thể của họ.
Khung này là một phần trong danh mục đầu tư rộng lớn và đang phát triển của NIST về công việc liên quan đến AI, bao gồm nghiên cứu cơ bản và ứng dụng cùng với trọng tâm là đo lường và đánh giá, tiêu chuẩn kỹ thuật và đóng góp cho chính sách AI.
Nguyễn Ngoan