Trên không gian mạng gần đây xuất hiện phương thức lừa đảo chiếm đoạt tài sản rất tinh vi. Các Kẻ gian dễ dàng thực hiện cuộc gọi video sử dụng công nghệ Deepfake ghép mặt, giọng nói giống hệt người quen khiến nạn nhân “sập bẫy. Vậy, làm thế nào để có thể tránh bẫy lừa đảo Deepfake?
Vừa qua, các đối tượng tội phạm công nghệ cao đã sử dụng công nghệ Deepfake AI để tạo ra các sản phẩm công nghệ âm thanh, hình ảnh và video với độ chính xác cao.Thông qua các ứng dụng OTT (cung cấp nội dung hình ảnh, tin nhắn, gọi điện như Viber, Zalo, Messenger…), kẻ xấu có thể thực hiện cuộc gọi thoại, thậm chí cả video với giọng nói, hình ảnh là của người thân, người quen, sếp… khiến người nhận rất khó phân biệt thật giả và sập bẫy lừa đảo cuộc gọi Deepfake. Với cách thức này, gần đây chúng đã đánh lừa một nạn nhân ở TP Hồ Chí Minh số tiền 20 triệu đồng, ngay cả khi nạn nhân đã thực hiện cuộc gọi video qua Facebook để kiểm chứng.
Nhằm phục vụ trò lừa đảo, chúng tìm kiếm, thu thập thông tin cá nhân, hình ảnh, video có giọng nói được đăng tải công khai trên các tài khoản mạng xã hội… rồi sử dụng công nghệ Deepfake để tạo sẵn những video rất khó phân biệt thật – giả, có hình ảnh, giọng nói của cá nhân đó để phục vụ cho kịch bản lừa đảo. Những cuộc gọi video như vậy thường có âm thanh không rõ nét, tín hiệu chập chờn giống cuộc gọi trong vùng phủ sóng yếu để nạn nhân khó phân biệt thật giả. Nếu nạn nhân cẩn thận gọi video lại để kiểm chứng, chúng sẽ không nhận cuộc gọi hoặc sử dụng phần mềm cắt ghép hình ảnh, video để đánh lừa…Điều đáng chú ý trong vụ việc là dù hình ảnh video có chất lượng khá kém, âm thanh bị rè cùng độ phân giải thấp giống cuộc gọi trong vùng phủ sóng yếu – khiến nạn nhân khó phân biệt thật giả, song ngữ điệu, giọng nói đến cách xưng hô đều được kẻ gian nắm rõ. Kẻ gian đã mô phỏng chính xác đến mức nạn nhân dù là người thân trong gia đình cũng dễ dàng bị mắc bẫy.
Trường hợp chị V.T.M. (trú tại Q.Long Biên, Hà Nội) nhận được tin nhắn mượn 75 triệu đồng từ tài khoản Facebook của người thân đang sinh sống ở nước ngoài. Chị M. sau đó gọi video call để xác nhận khuôn mặt và ngữ điệu của người mượn tiền. Khi không còn thấy nghi ngờ, chị nhanh chóng gửi tiền mà không biết rằng, mình đã bị lừa bởi chiêu thức sử dụng công nghệ deepfake, Công an nhân dân đưa tin.
“Người dân nâng cao cảnh giác khi nhận bất kỳ tin nhắn, cuộc gọi video với nội dung vay, mượn tiền qua các ứng dụng mạng xã hội. Đồng thời, cần bình tĩnh, sau đó gọi điện thoại trực tiếp cho người thân để xác minh, không gọi qua các ứng dụng như Zalo, Messenger, Viber, Telegram. Trường hợp nghi vấn đối tượng giả mạo người thân trên mạng xã hội để lừa đảo, chiếm đoạt tài sản, người dân cần báo ngay cho cơ quan công an gần nhất để được hỗ trợ, xử lý kịp thời” – luật sư Đặng Thị Vân Thịnh chia sẻ.
Theo các chuyên gia pháp luật, nếu nhận được một cuộc gọi yêu cầu chuyển tiền gấp, trước tiên hãy bình tĩnh và xác minh thông tin: Liên lạc với người thân, bạn bè xem có đúng họ cần tiền không. Kiểm tra kỹ số tài khoản được yêu cầu chuyển tiền. Nếu là tài khoản lạ, tốt nhất là không nên tiến hành giao dịch. Nếu cuộc gọi từ người tự xưng là đại diện cho ngân hàng, hãy gác máy và gọi trực tiếp cho ngân hàng để xác nhận cuộc gọi vừa rồi có đúng là ngân hàng thực hiện hay không. Các cuộc gọi thoại hay video có chất lượng kém, chập chờn là một yếu tố để bạn nghi ngờ người gọi cũng như tính xác thực của cuộc gọi.
Ngoài ra, hãy lưu giữ cẩn thận thông tin cá nhân, như số căn cước công dân, địa chỉ nhà riêng, ngày sinh, số điện thoại, tên đệm và thậm chí cả tên của con cái… Những kẻ lừa đảo có thể sử dụng thông tin này để mạo danh khi liên hệ với ngân hàng và những người khác.
Deepfake là gì, nhận biết thế nào?
Theo Hãng bảo mật Kaspersky, Deepfake là một từ ghép của “deep” trong “deep learning” (học sâu) và “fake” (giả mạo). Deep learning là dùng phương pháp AI tiên tiến ứng dụng nhiều thuật toán nhằm tổng hợp dần các tính năng cao cấp từ dữ liệu đầu vào. Từ đó nó có khả năng tổng hợp, học hỏi từ những dữ liệu mà người dùng đưa vào như khuôn mặt con người, chuyển động vật lý và giọng nói…
Từ các dữ liệu này, AI sau đó sẽ xử lý để tạo ra video Deepfake thông qua mạng GAN (Generative Adversarial Network – dịch nôm na: mạng sinh ra dữ liệu mới sau quá trình học). Mạng lưới này liên tục kiểm tra các hình ảnh, âm thanh, chuyển động… được tạo ra theo chương trình thiết lập từ trước. Từ đó các video Deepfake cuối cùng sẽ cho ra hình ảnh ngày càng thuyết phục, sống động và thật hơn.
Năm 2018, các nhà nghiên cứu Mỹ đã phát hiện khuôn mặt do deepfake tạo ra sẽ không thể chớp mắt bình thường. Thực tế cho thấy, phần lớn các hình ảnh được sử dụng đều ở trạng thái đang mở mắt do các thuật toán AI không có nhiều thông tin về hành động chớp mắt của con người, theo The Guardian. Thời điểm đó, đây là một trong những đặc điểm quan trọng để nhận diện hình ảnh giả do deepfake tạo ra. Tuy nhiên sau khi công bố trên được đưa ra, điểm yếu của deepfake đã được khắc phục khi hình ảnh trong các video deepfake đã có thể chớp mắt. Dù vậy, người dùng có thể lưu ý về việc các video từ AI với công nghệ deepfake sẽ có chất lượng kém, hoạt động cơ mặt không tốt hoặc có màu da loang lổ. Ngoài ra, có thể có hiện tượng nhấp nháy xung quanh các cạnh của khuôn mặt; các chi tiết nhỏ như tóc sẽ khó hiển thị tốt, dễ mất các sợi ở rìa. Đồ trang sức và răng, cũng như các hiệu ứng ánh sáng do deepfake làm ra sẽ cho cảm giác rất “giả”, chẳng hạn như ánh sáng và phản xạ không nhất quán trên mống mắt.
Hiện tại trên các diễn đàn tin tặc, tình trạng mua bán dữ liệu người dùng đang diễn ra khá phức tạp. Những dữ liệu nhạy cảm như KYC (Know Your Customer), eKYC – dữ liệu để xác minh thông tin người dùng (gồm cả video khuôn mặt và ghi âm giọng nói)… là nguồn dữ liệu phong phú để kẻ gian khai thác, thực hiện mục đích xấu.
Trên thế giới, nhiều đối tượng không chỉ sử dụng video deepfake để lừa đảo đơn thuần mà còn dùng cho mục đích chính trị, trả thù cá nhân, bắt cóc tống tiền và thực hiện các phi vụ lừa đảo lớn.
Đơn cử, giám đốc điều hành của một công ty năng lượng tại Anh từng bị lừa tới 243.000 USD (hơn 5,7 tỉ đồng), khi kẻ gian dùng công nghệ deepfake của người đứng đầu công ty mẹ, yêu cầu ông này chuyển tiền khẩn cấp, theo Forbes.
Theo vị giám đốc này, giọng nói trong cuộc gọi video thật đến mức ông không nghĩ đến việc kiểm tra lại, dù tiền được chuyển đến tài khoản ngân hàng của bên thứ ba thay vì tài khoản của trụ sở chính. Ông chỉ bắt đầu nghi ngờ khi đối phương tiếp tục yêu cầu ông chuyển thêm một khoản tiền khác, nhưng đã quá muộn.