Microsoft phát hành PyRIT - Công cụ xác định rủi ro dành cho các hệ thống AI tạo sinh

15:00 | 01/03/2024 | TIN TỨC SẢN PHẨM
Microsoft đã phát triển Python Risk Identification Tool (PyRIT) như một công cụ hỗ trợ quan trọng cho các đội ngũ Red Teaming trong việc đánh giá và phát hiện rủi ro trong hệ thống AI tạo sinh.

Ram Shankar Siva Kumar, trưởng nhóm Red Team AI tại Microsoft cho biết: “Công cụ này được thiết kế để cho phép mọi tổ chức trên toàn cầu có trách nhiệm hơn khi đổi mới trí tuệ nhân tạo.”

Công ty cho biết PyRIT có thể được sử dụng để đánh giá tính mạnh mẽ của các điểm cuối trong mô hình ngôn ngữ lớn (LLM) nhằm chống lại các nội dung bịa đặt, sử dụng sai mục đích, nội dung cấm… Công cụ này cũng có thể được sử dụng để xác định các tác hại về bảo mật từ việc tạo phần mềm độc hại đến bẻ khóa, cũng như các tác động đến quyền riêng tư như đánh cắp danh tính.

PyRIT gồm 5 phần: mục tiêu, bộ dữ liệu, bộ đánh giá, khả năng hỗ trợ nhiều chiến lược tấn công và tích hợp một thành phần bộ nhớ, có thể ở dạng JSON hoặc cơ sở dữ liệu để lưu trữ các tương tác giữa đầu vào, đầu ra trung gian. Bộ đánh giá cũng cung cấp hai tùy chọn khác nhau để đánh giá các đầu ra từ hệ thống AI mục tiêu, cho phép Red Team sử dụng một bộ phân loại học máy cổ điển hoặc tận dụng một điểm cuối LLM để tự đánh giá.

Microsoft cho biết: “Mục tiêu là cho phép các nhà nghiên cứu có cơ sở về mức độ hoạt động của mô hình, toàn bộ quy trình của họ đối với các tác hại khác nhau và có thể so sánh dựa trên phiên bản hiện tại với với các phiên bản tương lai của mô hình”. Điều này cho phép Microsoft có nguồn dữ liệu qua các đánh giá về hiệu suất của mô hình và phát hiện bất kỳ sự suy giảm hiệu suất dựa trên các cải tiến trong tương lai.

PyRIT không phải là phương pháp thay thế cho việc kiểm tra Red Teaming thủ công mà là công cụ bổ trợ cho kỹ năng chuyên môn hiện có của đội ngũ Red Teaming. Theo đó, công cụ này giúp xác định các "điểm nóng" rủi ro bằng cách tạo ra các dấu nhắc có thể được sử dụng để đánh giá hệ thống AI và chỉ ra các lĩnh vực cần được điều tra thêm.

Microsoft đã phát triển PyRIT như một công cụ hỗ trợ quan trọng cho các đội ngũ Red Teaming trong việc đánh giá và phát hiện rủi ro trong hệ thống AI tạo sinh. Công cụ này không nhằm thay thế hoàn toàn cho các phương pháp kiểm tra thủ công mà là để tăng cường khả năng phát hiện các điểm rủi ro tiềm ẩn, giúp các chuyên gia có thể tập trung vào việc điều tra sâu hơn vào những vấn đề cụ thể. PyRIT đóng vai trò như một bước tiến quan trọng trong việc bảo mật AI, đặc biệt là trong bối cảnh ngày càng có nhiều hệ thống AI tạo sinh được triển khai rộng rãi.

Sự phát triển này xảy ra khi Protect AI tiết lộ nhiều lỗ hổng nghiêm trọng trong các nền tảng chuỗi cung ứng AI phổ biến như ClearML, Hugging Face, MLflow và Triton Inference Server có thể dẫn đến việc thực thi mã tùy ý và tiết lộ thông tin nhạy cảm.

Quốc Trung

(Theo The Hacker news)

Tin cùng chuyên mục

Tin mới