-
Hưng Yên bàn giải pháp nâng hạng Chỉ số đổi mới sáng tạo -
Việt Nam đặt mục tiêu có ít nhất 5 kỳ lân công nghệ -
FPT và tỉnh Điện Biên tiên phong thử nghiệm phát triển kinh tế tầm thấp với UAV -
Nhà mạng Việt Nam tăng tốc 5G, mở đường phát triển 6G -
Hưng Yên lấy ý kiến cho Đề án Khu công nghệ cao gần 500 ha -
Đằng sau hành trình tỷ đô của Viettel ở thị trường nước ngoài
Tại họp báo thường kỳ của Bộ Thông tin và Truyền thông tháng 5/2023, đại diện Bộ Thông tin và Truyền thông cho biết, thời gian gần đây xuất hiện hình thức lừa đảo trực tuyến mới là cuộc gọi video deepfake. Các đối tượng sử dụng công nghệ trí tuệ nhân tạo (AI) để tạo ra những video hoặc hình ảnh giả, sao chép chân dung để tạo ra các đoạn video giả người thân, bạn bè để thực hiện các cuộc gọi lừa đảo trực tuyến
Deepfake đang là một mối đe dọa đối với sự trung thực và tin cậy của video và hình ảnh. Nó có thể được sử dụng không chỉ để lừa đảo trực tuyến mà còn sử dụng cho các mục đích khác như tấn công chính trị, tạo ra những tin tức giả mạo hoặc phá hoại danh tiếng của người khác. Phần lớn hình thức lừa đảo trực tuyến này nhắm tới việc lừa đảo tài chính.
![]() |
| Các đối tượng xấu sử dụng công nghệ Deepfake ghép mặt, giọng nói giống hệt người quen. Ảnh minh họa |
Chuyên gia bảo mật của Bộ Thông tin và Truyền thông cũng chỉ rõ các dấu hiệu của cuộc Deepfake lừa đảo mà bằng mắt thường vẫn có thể phát hiện như: Thời gian gọi thường rất ngắn chỉ vài giây; Khuôn mặt của họ thiếu tính cảm xúc và khá "trơ" khi nói, hoặc tư thế của họ trông lúng túng, không tự ; Hướng đầu và cơ thể của họ trong video không nhất quán với nhau…
Ngoài ra, cũng có thể thấy màu da của nhân vật trong video bất thường, ánh sáng kỳ lạ và bóng đổ không đúng vị trí. Điều này có thể khiến cho video trông rất giả tạo và không tự nhiên. Âm thanh cũng là một vấn đề có thể xảy ra trong video. Âm thanh sẽ không đồng nhất với hình ảnh, có nhiều tiếng ồn bị lạc vào clip hoặc clip không có âm thanh.
"Điều này có thể khiến cho video trông rất giả tạo và không tự nhiên", đại diện Bộ Thông tin và Truyền thông cho biết.
Có thể xảy ra tình huống mà tài khoản chuyển tiền không phải của người đang thực hiện cuộc gọi. Và thường kẻ gian sẽ ngắt giữa chừng, bảo là mất sóng, sóng yếu...
“Tóm lại, các yếu tố kỳ lạ như trên là báo hiệu đỏ của deepfake. Người dân nên luôn cảnh giác và tuyệt đối bình tĩnh”, đại diện Bộ Thông tin và Truyền thông chia sẻ.
Tại cuộc họp báo, ông Trần Quang Hưng, Phó Cục trưởng Cục An toàn Thông tin, Bộ Thông tin và Truyền thông cho rằng, để giải quyết gốc rễ vấn đề lừa đảo trực tiếp như deepfake cần nhiều giải pháp như giải pháp công nghệ giúp nhận diện cuộc gọi lừa đảo, hạn chế các tài khoản ngân hàng không chính chủ, thực hiện chuẩn hóa thông tin thuê bao.
"Ngoài các giải pháp công nghệ, chúng ta cần đánh giá lại gốc của vấn đề là phần lớn lừa đảo liên quan đến tài chính. Để lấy được tiền của nạn nhân, kẻ lừa đảo cần có tài khoản ngân hàng. Trong khi đó, chúng ta vẫn còn những tài khoản ngân hàng không chính chủ, chỉ cần 2-3 triệu là mua được”, ông Trần Quang Hưng chia sẻ.
-
Nhà mạng Việt Nam tăng tốc 5G, mở đường phát triển 6G -
Hưng Yên lấy ý kiến cho Đề án Khu công nghệ cao gần 500 ha -
Đằng sau hành trình tỷ đô của Viettel ở thị trường nước ngoài -
Ngành công nghiệp UAV Việt Nam: Điểm bắt đầu từ tư duy cân bằng -
XOR: Chuẩn mực điện thoại xa xỉ từ nền tảng Anh Quốc thực thụ -
Các quy tắc chống lừa đảo trực tuyến -
Việt Nam đặt mục tiêu có 10.000 chuyên gia an ninh mạng chuyên sâu
-
Agribank lan tỏa giá trị số từ mô hình Kiosk thông minh phục vụ hành chính công -
Danko Group “bắt tay” BIDV: Bảo chứng vàng cho tiến độ Danko Royal -
Rót 37 tỷ đô vào hạ tầng, Đông Bắc TP.HCM hưởng được lợi ích gì? -
MICC Group đồng hành cùng Vinhomes Hải Vân Bay khởi động chiến dịch ra quân toàn quốc -
Wellness Economy: Khi sức khỏe trở thành thước đo của sự giàu có mới -
Từ "Zero" đến "Hero": Cuộc cách mạng về vị thế của du lịch Việt Nam đã diễn ra như thế nào?

