Đạo luật trí tuệ nhân tạo tại Châu Âu
PHƯƠNG PHÁP TIẾP CẬN DỰA TRÊN RỦI RO VÀ AN TOÀN SẢN PHẨM TẠI EU
Đạo luật AI được thiết kế để đảm bảo rằng AI được phát triển và sử dụng tại EU là đáng tin cậy, với các biện pháp bảo vệ quyền cơ bản của mọi người. Quy định này nhằm mục đích thiết lập một thị trường nội bộ hài hòa cho AI tại EU, khuyến khích việc tiếp nhận công nghệ này và tạo ra một môi trường hỗ trợ cho đổi mới và đầu tư.
Đạo luật AI đưa ra định nghĩa hướng tới tương lai về AI với phương pháp tiếp cận dựa trên rủi ro và an toàn sản phẩm tại EU:
Rủi ro tối thiểu
Hầu hết các hệ thống AI, chẳng hạn như hệ thống đề xuất hỗ trợ AI và bộ lọc thư rác đều thuộc loại này. Các hệ thống này không phải chịu bất kỳ nghĩa vụ nào theo Đạo luật AI do rủi ro tối thiểu đối với quyền và sự an toàn của công dân. Các công ty có thể tự nguyện áp dụng các quy tắc ứng xử bổ sung.
Rủi ro minh bạch cụ thể
Các hệ thống AI như chatbot phải tiết lộ rõ ràng với người dùng rằng họ đang tương tác với AI. Một số nội dung do AI tạo ra, bao gồm cả deep fake phải được gắn nhãn như vậy và người dùng cần được thông báo khi sử dụng hệ thống phân loại sinh trắc học hoặc nhận dạng cảm xúc. Ngoài ra, các nhà cung cấp sẽ phải thiết kế hệ thống theo cách mà nội dung âm thanh, video, văn bản và hình ảnh tổng hợp được đánh dấu ở định dạng có thể đọc được bằng máy và có thể phát hiện được là được tạo ra bởi AI.
Rủi ro cao
Các hệ thống AI được xác định là rủi ro cao sẽ phải tuân thủ các yêu cầu nghiêm ngặt, bao gồm các hệ thống giảm thiểu rủi ro, chất lượng cao của bộ dữ liệu, ghi nhật ký hoạt động, tài liệu chi tiết, thông tin người dùng rõ ràng, giám sát của con người, mức độ mạnh mẽ, chính xác và an ninh mạng cao. Các khuôn khổ quy định sẽ tạo điều kiện cho sự đổi mới có trách nhiệm và phát triển các hệ thống AI tuân thủ. Các hệ thống AI có rủi ro cao, ví dụ như các hệ thống AI được sử dụng để tuyển dụng hoặc để đánh giá xem ai đó có đủ điều kiện để vay vốn hay để chạy rô-bốt tự động hay không.
Rủi ro không thể chấp nhận
Các hệ thống AI được coi là mối đe dọa rõ ràng đối với các quyền cơ bản của con người sẽ bị cấm. Điều này bao gồm các hệ thống hoặc ứng dụng AI thao túng hành vi của con người để lách luật tự do ý chí của người dùng, chẳng hạn như trò chơi sử dụng trợ lý giọng nói khuyến khích hành vi nguy hiểm của trẻ vị thành niên. Ngoài ra, một số ứng dụng của hệ thống sinh trắc học sẽ bị cấm, ví dụ như hệ thống nhận dạng cảm xúc được sử dụng tại nơi làm việc và một số hệ thống để phân loại mọi người hoặc nhận dạng sinh trắc học từ xa theo thời gian thực cho mục đích thực thi pháp luật tại các không gian công cộng (với một số ngoại lệ hạn chế).
Để bổ sung cho hệ thống này, Đạo luật AI cũng đưa ra các quy tắc cho các mô hình AI có mục đích chung, đây là các mô hình AI có khả năng cao được thiết kế để thực hiện nhiều nhiệm vụ khác nhau như tạo văn bản giống con người. Các mô hình AI mục đích chung ngày càng được sử dụng như các thành phần của các ứng dụng AI. Đạo luật AI sẽ đảm bảo tính minh bạch dọc theo chuỗi giá trị và giải quyết các rủi ro hệ thống có thể xảy ra của các mô hình có khả năng nhất.
ÁP DỤNG VÀ THỰC THI CÁC QUY TẮC ĐỐI VỚI HỆ THỐNG AI
Các quốc gia thành viên có thời hạn đến ngày 02/8/2025 để chỉ định các cơ quan có thẩm quyền quốc gia, những cơ quan sẽ giám sát việc áp dụng các quy tắc cho các hệ thống AI và thực hiện các hoạt động giám sát thị trường. Văn phòng AI của Ủy ban được thành lập vào tháng 5/2024 sẽ là cơ quan thực hiện chính cho Đạo luật AI ở cấp EU, cũng như là cơ quan thực thi các quy tắc cho các mô hình AI mục đích chung.
Ba cơ quan cố vấn sẽ hỗ trợ việc thực hiện các quy tắc Hội đồng Trí tuệ nhân tạo châu Âu sẽ đảm bảo việc áp dụng thống nhất Đạo luật AI đối với các quốc gia thành viên EU và sẽ hoạt động như cơ quan chính cho sự hợp tác giữa Ủy ban và các quốc gia thành viên. Một nhóm khoa học gồm các chuyên gia độc lập sẽ cung cấp tư vấn kỹ thuật và ý kiến đóng góp về việc thực thi. Đặc biệt, nhóm này có thể đưa ra cảnh báo cho Văn phòng AI về các rủi ro liên quan đến các mô hình AI mục đích chung. Văn phòng AI cũng có thể nhận được hướng dẫn từ một diễn đàn cố vấn , bao gồm nhiều bên liên quan khác nhau.
Các công ty không tuân thủ các quy tắc sẽ bị phạt. Mức phạt có thể lên tới 7% doanh thu hàng năm toàn cầu đối với hành vi vi phạm các ứng dụng AI bị cấm, lên tới 3% đối với hành vi vi phạm các nghĩa vụ khác và lên tới 1,5% đối với hành vi cung cấp thông tin không chính xác.
Phần lớn các quy định của Đạo luật AI sẽ bắt đầu có hiệu lực vào ngày 01/8/2024. Tuy nhiên, lệnh cấm đối với các hệ thống AI được coi là có rủi ro không thể chấp nhận được sẽ có hiệu lực sau sáu tháng, trong khi các quy định đối với cái gọi là mô hình AI mục đích chung sẽ có hiệu lực sau 12 tháng.
Để thu hẹp thời gian chuyển tiếp trước khi triển khai đầy đủ, Ủy ban đã đưa ra Hiệp ước AI. Sáng kiến này kêu gọi các nhà phát triển AI tự nguyện áp dụng các nghĩa vụ chính của Đạo luật AI trước thời hạn pháp lý.
Hiện nay, Ủy ban cũng đang xây dựng các hướng dẫn để xác định và nêu chi tiết cách thức thực hiện Đạo luật AI và tạo điều kiện cho các công cụ đồng quản lý như tiêu chuẩn và quy tắc thực hành.
Để đạo luật AI đi vào thực tế, ngày 09/7/2024, khi quy định EuroHPC JU đã sửa đổi có hiệu lực cho phép thành lập các nhà máy AI. Điều này cho phép sử dụng các siêu máy tính AI chuyên dụng để đào tạo các mô hình AI mục đích chung (GPAI). Các nghiên cứu độc lập dựa trên bằng chứng liên tục do Trung tâm nghiên cứu chung (JRC) thực hiện đóng vai trò cơ bản trong việc định hình các chính sách AI của EU và đảm bảo việc thực hiện chúng một cách hiệu quả.
KẾT LUẬN
Đạo luật AI của EU đánh dấu một bước ngoặt quan trọng trong việc quản lý và phát triển công nghệ AI trên toàn cầu. Với mục tiêu bảo vệ quyền lợi của người dân và thúc đẩy sự minh bạch trong việc sử dụng AI, đạo luật này không chỉ tạo ra khung pháp lý tiên tiến mà còn định hình tiêu chuẩn đạo đức trong việc triển khai công nghệ này. Tuy nhiên, thách thức lớn vẫn tồn tại trong việc cân bằng giữa thúc đẩy đổi mới và đảm bảo an toàn, đặc biệt là khi công nghệ AI tiếp tục tiến bộ nhanh chóng. Đạo luật AI Châu Âu sẽ đóng vai trò như một mô hình tham khảo cho các quốc gia khác, nhưng cũng cần sự hợp tác quốc tế để đảm bảo các quy định pháp lý có thể theo kịp sự phát triển của công nghệ, đồng thời duy trì tính cạnh tranh và sáng tạo.
TS. Nguyễn Tiến Dũng (Học viện Cảnh sát nhân dân)