Trong bối cảnh công nghệ trí tuệ nhân tạo ngày một tiên tiến, tội phạm mạng cũng dần trở nên tinh vi hơn nhờ tận dụng *deepfake* – một kỹ thuật mô phỏng hình ảnh và giọng nói bằng AI. Theo “Báo cáo sự cố Deepfake quý I năm 2025” công bố mới đây, trong giai đoạn từ tháng 1 đến tháng 4 năm nay, tổng thiệt hại do các vụ lừa đảo deepfake gây ra trên toàn cầu đã lên tới hơn 200 triệu USD (tương đương khoảng 2.780 tỷ đồng). Điều đáng lo ngại là những vụ việc này không còn giới hạn ở người nổi tiếng mà ngày càng hướng tới cả người dùng phổ thông.
Báo cáo cho thấy mức độ tổn thất nghiêm trọng khi *deepfake* không chỉ được dùng trong nội dung giải trí như trước đây, mà đang bị khai thác để mục đích lừa đảo tài chính và đánh cắp thông tin. Với sự hỗ trợ của AI, các đối tượng xấu có thể tạo ra video hoặc âm thanh mô phỏng gần như hoàn toàn giọng nói, khuôn mặt và cử chỉ của người thật – từ đó tạo cảm giác tin tưởng giả tạo để lừa nạn nhân.
Theo ghi nhận, có đến 41% các vụ *lừa đảo deepfake* nhắm vào chính trị gia hoặc người nổi tiếng, trong khi 34% nhắm tới người dùng thông thường. Điều này cho thấy không ai được phép chủ quan. Một ví dụ điển hình là vụ việc hồi tháng 2 năm 2024: tin tặc đã sử dụng video giả mạo vị giám đốc tài chính (CFO) của một tập đoàn lớn để gọi video cho nhân viên và yêu cầu chuyển khoản 25 triệu USD (hơn 347 tỷ đồng). Hình ảnh giả lập tinh vi tới mức không ai phát hiện ra bất thường cho đến khi giao dịch đã hoàn tất.
Bình luận: Đây là minh chứng rõ ràng cho sự nguy hiểm của *deepfake* khi độ chân thật đã vượt ngoài khả năng phân biệt của con người thông thường.
Một điểm đáng cảnh báo khác là tốc độ phát triển của công nghệ đang nhanh hơn năng lực phòng vệ. Nhiều nghiên cứu cho thấy chỉ cần vài đoạn video từ mạng xã hội, AI có thể mô phỏng giọng nói của một người với độ chính xác lên đến 85%. Đáng lo hơn, khoảng 68% người dùng không thể phân biệt được video deepfake với video thật. Trong kỷ nguyên số, lời đề nghị chuyển khoản từ "một sếp quen biết" trên video có thể hoàn toàn là một cái bẫy.
Không chỉ là lừa đảo tài chính, các cuộc tấn công bằng *deepfake* đa dạng từ tống tiền bằng nội dung nhạy cảm (chiếm 32%), lừa đảo tài chính (23%), thao túng chính trị (14%) cho tới phát tán tin giả (13%). Thiệt hại không dừng lại ở cá nhân mà còn làm xói mòn lòng tin trong xã hội cũng như gây tổn thất cho doanh nghiệp.
Bình luận: Tính chất đa dạng và quy mô rộng khắp của các vụ việc cho thấy deepfake không còn là vấn đề công nghệ đơn thuần mà đã trở thành mối đe dọa an ninh xã hội.
Các chuyên gia khuyến cáo cần có chiến lược toàn diện ở cả cấp cá nhân, doanh nghiệp và chính phủ để đối phó với vấn đề này. Giải pháp đầu tiên là tăng cường *giáo dục truyền thông số (media literacy)* – cụ thể như hướng dẫn người dùng yêu cầu đối phương thực hiện hành động xác thực trong cuộc gọi video, ví dụ quay đầu sang trái hoặc cung cấp thông tin riêng tư để loại trừ giả mạo. Doanh nghiệp cũng được khuyên hạn chế phát tán hình ảnh chất lượng cao của lãnh đạo và áp dụng thêm phương pháp bảo vệ như nhúng watermark cho video.
Ở cấp nhà nước, nhiều quốc gia đã bắt đầu triển khai luật điều chỉnh. Mỹ hiện yêu cầu các nền tảng mạng xã hội gỡ bỏ nội dung *deepfake khiêu dâm* trong vòng 48 giờ. Đạo luật này nhận được sự ủng hộ công khai từ bà Melania Trump – qua đó nhận được đồng thuận cao trong công luận. Tuy nhiên, do deepfake có phạm vi toàn cầu, các chuyên gia cảnh báo: chỉ khi có quy chuẩn quốc tế cùng cơ chế phối hợp liên quốc gia, mới có thể đối phó hiệu quả với loại tội phạm mới này.
Số liệu cũng phần nào cho thấy tốc độ lây lan đáng sợ: năm 2023, tại khu vực Bắc Mỹ, số vụ *lừa đảo deepfake* tăng tới 1.740%. Nếu không có biện pháp kiểm soát, ước tính đến năm 2027, nền kinh tế Mỹ có thể tổn thất tới 40 tỷ USD (tương đương khoảng 55,6 nghìn tỷ đồng).
Bình luận: Với đà tăng trưởng như hiện tại, nếu không hành động sớm, hậu quả về mặt xã hội và kinh tế do deepfake mang lại có thể vượt xa tội phạm mạng truyền thống.
Cuối cùng, cách hiệu quả nhất để đối phó với deepfake là tận dụng chính công nghệ để chống lại nó. Các giải pháp phát hiện deepfake theo thời gian thực dựa trên AI, thiết lập quy chế quản lý đồng bộ trên toàn cầu cùng với sự cảnh giác liên tục từ người dùng sẽ là "tấm khiên" cần thiết. Trong thế giới số, sự cẩn thận trước một đoạn video hay âm thanh – kể cả từ người thân – chính là chiến lược sống còn.
Từ khóa: *lừa đảo deepfake*, *deepfake*, *deepfake tài chính*
Kết luận: Khi *lừa đảo deepfake* phát triển ngày càng tinh vi, việc nhận thức, phòng ngừa và phản ứng nhanh không chỉ là trách nhiệm của chính phủ, doanh nghiệp hay giới chuyên gia, mà là nghĩa vụ chung của tất cả người dùng. Trong thời đại công nghệ phát triển như vũ bão, một khoảnh khắc cảnh giác có thể cứu bạn khỏi mất trắng tài sản hay danh dự.
Bình luận 0