Sử dụng AI giả giọng người thân để gọi điện lừa đảo
“Nó đang cảm thấy sợ hãi, chúng ta cần phải giúp ngay lập tức”. Đây là câu nói của bà Ruth Card, 73 tuổi ở Regina (Canada) khi nhận được cuộc gọi từ người lạ. Người này nói cháu bà, anh Brandon, bị tạm giam, không có điện thoại để liên lạc và cần một số tiền để được tại ngoại.
Sau đó, bà cùng chồng đã ngay lập tức đến ngân hàng và rút 2.207 USD (mức rút tối đa mỗi ngày). Họ đến chi nhánh tiếp theo để rút tiếp nhưng may mắn Giám đốc ngân hàng này đã cảnh báo họ rằng đã có một trường hợp tương tự xảy ra khi một vị khách hàng khác nhận được một cuộc gọi từ những người giả mạo. Sau khi trấn tĩnh lại, Card đã nhận ra giọng nói đó không giống lắm so với cháu trai của họ, họ đã bị cảm xúc đánh lừa.
Các vụ lừa đảo mạo danh ở Hoa Kỳ ngày càng gia tăng, dấy lên mối lo ngại về công nghệ phát triển đã giúp những kẻ lừa đảo giả giọng nói một cách dễ dàng. Chúng thường thuyết phục những người lớn tuổi rằng người thân họ đang gặp nguy hiểm và cần một số tiền gấp.
Năm 2022, Uỷ ban thương mại Mỹ ghi nhận 36.000 báo cáo về những kẻ mạo danh bạn bè và gia đình để lừa đảo. Trong đó có hơn 5.100 trường hợp xảy ra qua điện thoại và gây thiệt hại hơn 11 triệu USD.
Các cơ quan pháp luật chưa có cơ sở pháp lý đầy đủ để có thể ngăn chặn các cuộc lừa đảo mạo danh đang tăng lên từng ngày và cũng không thể phạt các công ty đã tạo ra các công cụ giả mạo giọng nói này.
Mặc dù, có nhiều hình thức lừa đảo, nhưng về cơ bản chúng vẫn hoạt động theo cùng một cách. Những kẻ lừa đảo mạo danh một người đáng tin cậy như trẻ em, người thân hoặc bạn bè sau đó thuyết phục nạn nhân gửi tiền cho họ vì họ đang gặp khó khăn. Chúng lợi dụng cảm xúc của nạn nhân khi nghe người thân yêu của mình gặp nguy hiểm.
Đó là tác động tiêu cực từ sự phát triển đột phá của AI gần đây. Những kẻ lừa đảo thu thập mẫu âm thanh của nạn nhân và sử dụng AI để phân tích, từ đó tạo ra một bản sao giọng nói của người đó và nói bất cứ những gì chúng muốn, những mẫu này thường được lấy từ những nơi như Youtube, Facebook, video Tiktok, hoặc Instagram. Chỉ cần một đoạn âm thanh khoảng 30 giây là AI có thể sao chép giọng nói.
ElevenLabs là một công ty tổng hợp giọng nói bằng AI được thành lập năm 2022, công cụ được xây dựng cho phép chuyển đổi một mẫu giọng nói ngắn thành giọng nói được tạo ra tổng hợp.
Sau những lùm xùm mà công cụ này tạo ra như giả giọng người nổi tiếng, nói những thứ mà họ chưa từng nói thì bên phía ElevenLabs cho biết họ đang kết hợp các biện pháp bảo vệ để ngăn chặn việc lạm dụng và tạo ra một công cụ khác cho phép nhận biết âm thanh do AI tạo ra. Tuy nhiên, vẫn chưa có biện pháp nào ngăn được những cuộc lừa đảo đang diễn ra thường xuyên.
Một trường hợp khác, bố mẹ của Benjamin Perkin đã mất hàng ngàn USD vì một cuộc gọi lừa đảo tự xưng là luật sư cáo buộc rằng con trai họ đã gây tai nạn cho một nhà ngoại giao Hoa Kỳ, hiện tại đang cần tiền để cho các chi phí pháp lý và yêu cầu họ chuyển hơn 15.000 USD ngay trong ngày. Sau đó họ đã vội vã đến ngân hàng và gửi tiền. Đến tối, khi Perkin gọi điện cho bố mẹ, họ biết rằng mình đã bị lừa. Sau đó Perkin đã báo cảnh sát nhưng số tiền đã không lấy lại được nữa.
Trợ lý giám đốc bộ phận thực hành tiếp thị của Uỷ ban thương mại Will Maxson cho biết việc theo dõi những kẻ lừa đảo bằng giọng nói rất khó khăn vì chúng có thể sử dụng điện thoại ở bất kỳ đâu trên thế giới, không thể xác định cơ quan nào có thẩm quyền đối với những vụ lừa đảo này.
Maxson kêu gọi mọi người cần liên tục cảnh giác đối với những cuộc gọi từ người thân, đặc biệt là khi họ yêu cầu chuyển tiền. Cần xác mình thật kỹ trước khi đưa ra quyết định.
Thanh Bùi (Theo Washington Post)