Mặt tối của ChatGPT và hàm ý chính sách cho Việt Nam (Phần I)
Để quý vị độc giả có thể hiểu rõ hơn về những lợi ích và rủi ro mất an toàn thông tin khi sử dụng ChatGPT, Tạp chí An toàn thông tin mời đến trường quay GS,TS. Nguyễn Thanh Thủy, nguyên Phó Hiệu trưởng Đại học Công nghệ (ĐHQG Hà Nội); Ủy viên Hội đồng Giáo sư nhà nước; Chủ tịch HĐGS ngành CNTT; Chủ tịch Câu lạc bộ FISU và TS. Đặng Minh Tuấn, Viện trưởng Viện Nghiên cứu Ứng dụng CMC; Trưởng Lab Blockchain - Học viện Công nghệ Bưu chính Viễn thông; Phó Chủ tịch Câu lạc bộ FinTech của Hiệp hội Ngân hàng Việt Nam.
Buổi Tọa đàm trực tuyến "Mặt tối của ChatGPT và hàm ý chính sách cho Việt Nam" được triển khai bằng hình thức đưa ra câu hỏi mà độc giả quan tâm đến các chuyên gia trả lời và đăng tải trên website. Dưới đây là nội dung của buổi Tọa đàm.
MC: Đầu tiên, xin cảm ơn GS,TS. Nguyễn Thanh Thủy đã nhận lời mời tham gia chương trình. GS.TS Nguyễn Thanh Thủy là người có kinh nghiệm hơn 30 năm và là một trong những nhà khoa học đầu tiên nghiên cứu và giảng dạy về trí tuệ nhân tạo (hay còn gọi là AI) của Việt Nam, ông đánh giá như thế nào về những lợi ích mà ứng dụng này đem lại?
GS.TS. Nguyễn Thanh Thủy: Như chúng ta đã thấy, trí tuệ nhân tạo đã và đang mang lại những giá trị lợi ích vô cùng to lớn, thể hiện ở chỗ giúp cho năng suất và chất lượng công việc được nâng cao, chi phí giảm xuống, đặc biệt là tăng sự hài lòng của người sử dụng đối với các sản phẩm trí tuệ nhân tạo.
GS.TS. Nguyễn Thanh Thủy (bên phải) tham gia Tọa đàm "Mặt tối của ChatGPT và hàm ý chính sách cho Việt Nam"
Ngoài ra, thành tựu của trí tuệ nhân tạo những năm gần đây đã cho chúng ta thấy tác động mạnh mẽ của nó, đến mức người ta cho rằng nó đã tạo ra những sự thay đổi có tính chất cách mạng như thay đổi phương thức làm việc, phương thức học tập và cả cách suy nghĩ của con người. Những sản phẩm trí tuệ nhân tạo như ChatGPT có nội dung chuyên môn sâu, thuộc lĩnh vực rộng. Sản phẩm, ứng dụng ChatGPT rất phong phú và đa dạng, đặc biệt cách diễn đạt của nó trôi chảy đến mức người dùng có cảm nhận rằng người tạo sinh ra sản phẩm đó. Điều này đã tạo ra dấu ấn bùng nổ trong phát triển trí tuệ nhân tạo hiện nay.
MC: Cùng có mặt tại trường quay trong buổi Tọa đàm ngày hôm nay là TS. Đặng Minh Tuấn, Viện trưởng Viện Nghiên cứu Ứng dụng CMC, đồng thời cũng tác giả của phần mềm Vietkey, phần mềm gõ tiết Việt đầu tiên trước cả Unicode. Bên cạnh những lợi ích mà ứng dụng ChatGPT đem lại, ông đánh giá như thế nào về những thách thức bảo mật mà ChatGPT gây ra hiện nay?
TS. Đặng Minh Tuấn: Bên cạnh những mặt tích cực như GS.TS. Nguyễn Thanh Thủy đã chia sẻ, ChatGPT cũng đem lại nhiều nguy cơ và một số nội dung thông tin độc hại mang tính chất tiêu cực. Thông qua việc sử dụng ChatGPT cũng có thể gây lộ lọt thông tin cá nhân; tội phạm mạng cũng có thể khai thác, lợi dụng ChatGPT làm phương tiện để tạo ra những nội dung lừa đảo, hoặc có thể khai thác thông tin để chế tạo ra những sản phẩm độc hại như vũ khí. Ngoài ra, nhiều tin tặc còn sử dụng ChatGPT để phát triển mã độc, những phần mềm lừa đảo. Đây là một số mặt trái của ChatGPT.
MC: Quan tâm hơn về một trong những thách thức bảo mật mà ChatGPT đặt ra là việc vi phạm tính riêng tư của dữ liệu người dùng? Thưa GS. TS. Nguyễn Thanh Thủy, ông có thể chia sẻ thêm về vấn đề này?
GS.TS. Nguyễn Thanh Thủy: Trước khi trình bày về vấn đề vi phạm tính riêng tư khi sử dụng các sản phẩm trí tuệ nhân tạo hay ChatGPT thì tôi muốn chia sẻ thêm, trí tuệ nhân tạo và ChatGPT là một hệ thống các công cụ để tạo sinh ra các sản phẩm.
Theo thuật ngữ của những người làm công nghệ thông tin, chương trình thì bằng cấu trúc dữ liệu cộng với giải thuật, ChatGPT bằng mô hình ngôn ngữ lớn với kho dữ liệu khổng và công nghệ xử lý chính là GPT. ChatGPT của OpenAI là sự kết hợp nhiều công nghệ của trí tuệ nhân tạo, trong đó, sử dụng công nghệ chính là deep learning trên kho dữ liệu cực lớn. Bigdata này chứa đến 300 tỷ từ, 175 tỷ tham số.
Ta có thể thấy vi phạm riêng tư nếu có nó sẽ nằm ở dữ liệu chứ không nằm ở mô hình và cũng không nằm ở phần công nghệ. Các dữ liệu như thông tin cá nhân, sách, báo, tài liệu, thông tin trên trang web… sẽ dẫn đến vi phạm của người dùng là không xin phép mà đã tự ý sử dụng dữ liệu. Ngoài ra, khi sử dụng ChatGPT nó có thể cắt một phần nội dung trong đó và điều đó sẽ không đảm bảo được tính toàn vẹn.
Một điều nữa liên quan đến vi phạm tính riêng tư thể hiện ở chỗ bản quyền của sách, báo tài liệu, dữ liệu cá nhân của người dùng. Mặt khác, việc không công khai, không minh bạch, trong cơ chế sử dụng, phát tán, đưa dữ liệu thông tin lên mạng, không trả phí, sử dụng dữ liệu của người khác miễn phí và sau đó lại tạo ra sản phẩm có khả năng thu phí cũng là một điểm vi phạm tính riêng tư của ChatGPT.
Có hai quan ngại rất lớn, đầu tiên đó là thông tin của người sử dụng vô tình trở thành thông tin công cộng. Thứ hai là phản hồi của người dùng. Một trong những yếu tố rất quan trọng của ChatGPT là sử dụng phản hồi người dùng, sự phản hồi này giúp hoàn thiện ChatGPT.
MC: Bên cạnh những thách thức về bảo mật, ChatGPT cũng tác động đến rất nhiều lĩnh vực khác trong cuộc sống. Không thể phủ nhận, sự ra đời của ChatGPT đã phát huy hiệu quả tác động tích cực của trí tuệ nhân tạo, tuy nhiên nó cũng đi kèm với những tác động nhất định đến giáo dục nói chung và giáo dục tại Việt Nam nói riêng. Trong bối cảnh đó, xin được hỏi ông Đặng Minh Tuấn, ông nghĩ sao về những thách thức đặt ra khi ChatGPT ứng dụng trong lĩnh vực giáo dục?
TS. Đặng Minh Tuấn: Chúng ta có thể thấy ChatGPT có thể ứng dụng trong rất nhiều các lĩnh vực và ngành nghề khác nhau, trong giáo dục cũng vậy. Học sinh, sinh viên có thể sử dụng ChatGPT để tham khảo các thông tin một cách nhanh chóng, tiết kiệm thời gian hơn nhiều so với các công cụ tìm kiếm như Google. Tuy nhiên, những thông tin này lại chưa được kiểm chứng và có thể dẫn đến các kết quả sai lệch.
TS. Đặng Minh Tuấn (bên phải) tham gia Tọa đàm "Mặt tối của ChatGPT và hàm ý chính sách cho Việt Nam"
Ngoài ra, ChatGPT cũng có thể được sử dụng như một công cụ để giảng dạy trong quá trình học, thi cử và điều đó cũng vô tình tạo ra sự ỷ lại của học sinh sinh viên, không chịu động não, dựa dẫm nhiều vào công cụ ChatGPT. Trong quá trình đó cũng sẽ tạo ra khó khăn nhất định cho giáo viên, giảng viên trong việc phát hiện học sinh, sinh viên sao chép kiến thức, phân biệt đó có phải là sản phẩm của học sinh sinh viên hay là sản phẩm của ChatGPT.
MC: Như vậy, những rủi ro tiềm ẩn mà ChatGPT đem đến ngày càng hiện hữu. Tuy nhiên, phần lớn người dùng vẫn chưa nhận thức được rõ về vấn đề này. Đặc biệt, hiện nay, chưa có công cụ nào kiểm chứng được độ chính xác các câu trả lời của ChatGPT đưa ra và cách mà người dùng nhập dữ liệu vào ChatGPT, Giáo sư Nguyễn Thanh Thủy đánh giá sao về vấn đề này ?
GS.TS. Nguyễn Thanh Thủy: Như trên tôi đã chia sẻ, các sản phẩm của ChatGPT rất đa dạng và phong phú, thậm chí những sản phẩm đó gây ấn tượng mạnh với người dùng về giá trị sử dụng, tuy nhiên, đi kèm với nó bao gồm những rủi ro, đầu tiên phải kể đến là xâm thực và thao túng tâm lý. Nguồn dữ liệu không rõ ràng sẽ tạo ra những sản phẩm có tính chất thiên lệch, dẫn tới xâm thực về tâm lý và bị thao túng. Cái thứ hai rất quan trọng đặc biệt là trong những sản phẩm có tinh chất nghệ thuật, có tính chất thông tin xã hội, xâm thực văn hóa. Thứ ba là rủi ro liên quan đến an ninh an toàn. Thứ tư là vấn đề quan ngại đến con người, đặc biệt là bình đẳng xã hội, bình đẳng giới. Sản phẩm trí tuệ nhân tạo nói chung và ChatGPT nói riêng thì đều cần phải có chất lượng và nguồn dữ liệu.
Tính xác thực và tính toàn vẹn dữ liệu nhiều lúc không được đảm bảo dẫn tới dữ liệu thiếu căn cứ, không có tham chiếu dẫn tới nhiều rủi ro.
MC: Trước trào lưu sử dụng ChatGPT để viết phần mềm độc hại, tấn công kỹ nghệ xã hội, xâm phạm dữ liệu cá nhân, phát động tấn công mạng thì người dùng cần phải làm gì để bảo vệ mình khỏi những rủi ro này? Xin ý kiến từ ông Đặng Minh Tuấn.
TS. Đặng Minh Tuấn: Tôi lấy ví dụ về việc tham gia giao thông ngoài xã hội thì chúng ta cần phải tìm hiểu kỹ luật giao thông và các khả năng rủi ro. Tham gia trên môi trường mạng cũng vậy, người dùng cần tự trau dồi, nâng cao kỹ năng, hiểu biết của mình về an toàn thông tin để có thể tự bảo vệ mình khỏi các tấn công.
Ví dụ, khi chúng ta cần phải xác thực thông tin, đặc biệt là khi xuất hiện rất nhiều hình thức tấn công lừa đảo, chúng ta càng cần phải cảnh giác và phải xác thực nguồn gốc những thông tin đó, thậm chí phải kiểm tra chéo, phải có tương tác để kiểm tra tính xác thực của thông tin chúng ta nhận được. Đơn giản nhất, người dùng cần phải thường xuyên cập nhật bản vá những lỗ hổng phần mềm; luôn cảnh giác và tìm hiểu, nắm bắt những thủ đoạn tấn công mới, đặc biệt trong bối cảnh công nghệ trí tuệ nhân tạo và ChatGPT được kẻ xấu sử dụng rất hiệu quả.
(còn tiếp)
Tạp chí An toàn thông tin