-
6G và AI Viettel xuất hiện trên hàng loạt báo quốc tế sau MWC -
VSAP LAB và hành trình mở lối cho bán dẫn Việt Nam -
Mở “cửa ải” khoa học - công nghệ để bước vào kỷ nguyên mới -
Việt Nam góp tiếng nói vào các vấn đề công nghệ di động toàn cầu -
Tốc độ 5G Viettel dẫn đầu Việt Nam -
TP.HCM lập quỹ đầu tư mạo hiểm, ưu tiên đổi mới sáng tạo và khoa học công nghệ
![]() |
Tạo hình ảnh, giọng nói và video giả mạo để lừa đảo
Mới đây, chị V.T.M. (trú tại quận Long Biên, Hà Nội ) nhận được tin nhắn của một người bạn thân đang sống ở nước ngoài, nhờ chuyển 75 triệu đồng vào tài khoản. Cẩn thận thực hiện cuộc gọi video cho bạn để kiểm tra, thì phía bên kia hiện lên hình ảnh và nói đang cần tiền gấp, nên chị M. không ngần ngại chuyển tiền. Vài tiếng sau, trên Facebook cá nhân của người bạn đó đăng thông báo việc bị kẻ gian đánh cắp tài khoản để hỏi vay tiền bạn bè. Chị M. gọi điện lại, thì người bạn xác nhận đã bị kẻ gian chiếm đoạt tài khoản mạng xã hội.
Chị M. chỉ là một trong số nhiều nạn nhân được công an TP. Hà Nội, TP.HCM, Hà Tĩnh và nhiều tỉnh, thành phố khác… mô tả, phát đi cảnh báo về chiêu thức lừa đảo mới với công nghệ Deepfake.
Tại cuộc họp báo thông tin về tình hình, kết quả các mặt công tác quý I/2023 của Bộ Công an tổ chức vào ngày 28/3, ông Triệu Mạnh Tùng, Phó cục trưởng Cục An ninh mạng và Phòng chống tội phạm sử dụng công nghệ cao (Bộ Công an) cho biết, hiện các đối tượng đã sử dụng công nghệ Deepfake ứng dụng AI vào các mục đích lừa đảo, chiếm đoạt tài sản. Cụ thể, công nghệ Deepfake được dùng để giả hình ảnh, giọng nói của một người, rồi tương tác với bị hại. Khi chiếm được lòng tin của bị hại, các đối tượng yêu cầu bị hại thực hiện các giao dịch tài chính để lừa đảo, chiếm đoạt.
Chuyên gia bảo mật Vũ Ngọc Sơn, Giám đốc Kỹ thuật Công ty NCS cho biết, Deepfake ban đầu được sử dụng trong các ứng dụng “hoán đổi khuôn mặt” giúp người sử dụng dễ dàng thay khuôn mặt, giọng nói của mình vào những nhân vật trong các bộ phim nổi tiếng, rồi đến trào lưu chế ảnh, lồng tiếng hài hước cho các clip từng gây sốt thời gian trước.
“Gần đây, những kẻ lừa đảo đã lợi dụng ứng dụng Deepfake để làm ra các clip có nội dung lừa đảo, mạo danh. Nhiều người đã bị mất tiền do tưởng là người thân, đồng nghiệp, lãnh đạo gọi cho mình yêu cầu chuyển một khoản tiền cho họ”, ông Sơn cho biết.
Theo cơ quan công an, với công nghệ Deepfake, video giả mạo có độ chính xác cao, rất khó phân biệt thật giả. Tuy nhiên, video do đối tượng tạo sẵn thường có nội dung chung chung, không phù hợp hoàn toàn với ngữ cảnh thực tế giao tiếp. Để che lấp khuyết điểm này, các đối tượng thường tạo ra video với âm thanh khó nghe, hình ảnh không rõ nét, giống như cuộc gọi video có tín hiệu chập chờn, được thực hiện trong khu vực phủ sóng di động hoặc wifi yếu…
Phòng chống lừa đảo như thế nào?
Ông Ngô Minh Hiếu, Nhà sáng lập Dự án Chống lừa đảo nhấn mạnh, các cuộc điện thoại video hiển thị khuôn mặt ít biểu cảm, hướng đầu và cơ thể của người trong video không nhất quán, màu da bất thường, ánh sáng kỳ lạ, nhiều tiếng ồn, hình ảnh nhòe… là dấu hiệu của cuộc gọi Deepfake lừa đảo.
Theo ông Hiếu, khi có một ai đó trên mạng xã hội trong danh sách bạn bè hỏi mượn tiền, hay gửi link lạ, mọi người nên kiểm chứng, xác thực bằng cách gọi điện thoại trực tiếp hoặc gọi video call ít nhất trên 1 phút, đặt ra những câu hỏi mà chỉ có bạn và người kia mới biết, vì Deepfake sẽ không thể giả được một cuộc trò chuyện thật sự trong thời gian thực mà có tính chuẩn xác cao.
Chuyên gia Vũ Ngọc Sơn cũng cho biết, do năng lực tính toán của các ứng dụng Deepfake chưa hoàn hảo, nên các clip “chế” từ công nghệ này thường có dung lượng nhỏ, thời gian ngắn, chất lượng âm thanh, hình ảnh không cao.
“Người dùng không nên tin các clip có thời lượng ngắn, chất lượng clip thấp, nhòe, không rõ, khuôn mặt ít biểu cảm, cơ thể ít di chuyển, giọng nói không trơn tru hoặc quá đều đều, không ngắt nghỉ...”, chuyên gia Vũ Ngọc Sơn khuyến nghị.
Hiện tại, các mạng xã hội phổ biến toàn cầu như Facebook, Twitter, TikTok đều áp dụng công cụ riêng để phát hiện video Deepfake, đồng thời cấm đăng tải nội dung do công nghệ này tạo ra lên nền tảng của họ. Tuy vậy, việc phát hiện chỉ ở mức tương đối và kẻ gian vẫn không ngừng tìm cách để lách qua bộ lọc của mạng xã hội.
Các chuyên gia bảo mật cảnh báo, cách tốt nhất để tránh bị làm giả Deepfake là mọi người nên hạn chế chia sẻ hình ảnh, video cá nhân lên trên mạng; đồng thời luôn bảo mật tài khoản mạng xã hội, email bằng mật khẩu có độ khó cao. Nếu chia sẻ video hay clip trên mạng, nên làm méo tiếng của mình, thay bằng tiếng robot hoặc AI voice, để tránh kẻ xấu biết giọng nói thật.
Cơ quan công an cũng khuyến cáo người dùng cá nhân, các tổ chức, doanh nghiệp cần nâng cao cảnh giác với các cuộc gọi hỏi vay mượn tiền, xác nhận qua video call; nên xác thực lại thông tin bằng cách gọi điện thoại hoặc gặp trực tiếp để trao đổi thông tin chính xác trước khi giao dịch. Bên cạnh đó, người dùng nên cẩn trọng khi chia sẻ các thông tin cá nhân trên mạng xã hội, không nên để lộ quá nhiều thông tin riêng tư như số nhà, số căn cước công dân...
-
Tốc độ 5G Viettel dẫn đầu Việt Nam -
TP.HCM lập quỹ đầu tư mạo hiểm, ưu tiên đổi mới sáng tạo và khoa học công nghệ -
Tốc độ mạng 5G tại Việt Nam tăng mạnh -
Viettel bắt tay với hàng loạt Big Tech cùng định hình tương lai công nghệ -
Doanh nghiệp thiệt hại 18.900 tỷ đồng do tấn công mạng, trên 90% tổ chức có mã độc nằm vùng -
FPT gia nhập Liên minh 6G toàn cầu cùng Qualcomm, mở rộng cơ hội phát triển công nghệ chiến lược -
Viettel nhắm đích thương mại hóa 6G vào năm 2029
-
Roadshow Vinhomes Green Paradise Cần Giờ sôi động trong ngày 8/3, lan tỏa thông điệp tôn vinh phái đẹp -
Tăng cường sản xuất, tiêu thụ than, góp phần đảm bảo an ninh năng lượng quốc gia -
MICC Group đồng hành ra quân chiến dịch roadshow dự án Vinhomes Green Paradise Cần Giờ tại 3 thành phố lớn -
Chuỗi hội nghị quốc tế và hội thảo kỹ thuật tại VietShrimp Asia & Aquaculture Vietnam 2026 -
Sôi nổi các hoạt động gắn kết, chào mừng ngày 8/3 tại Vedan Việt nam -
Ardingly College Việt Nam sẽ kiến tạo mô hình nội trú Anh Quốc chính thống tại ASEAN

