**AI** đang âm thầm “đảo lộn bàn cờ” trong lĩnh vực **DeFi**, khiến chi phí tấn công giảm mạnh, tốc độ hack tăng vọt và nguy cơ mất mát hàng triệu USD ngày càng trở nên *rất thực tế*.
Theo phân tích từ ngành bảo mật, kẻ tấn công nay tận dụng các mô hình ngôn ngữ lớn (**LLM**) như *ChatGPT*, *Claude* để quét và phân tích trong chớp mắt hàng nghìn dòng mã của hợp đồng thông minh, nhanh chóng lần ra lỗ hổng. Đặc biệt, các **hợp đồng “legacy” cũ kỹ, không còn được bảo trì** đang trở thành “mỏ vàng” bị nhắm đến.
Chuyên gia bảo mật Gaby Urutia từ công ty an ninh blockchain Halborn nhận định, **“AI không cần tạo ra lỗ hổng mới. Chỉ cần tìm lại những vấn đề cũ với tốc độ nhanh hơn và ở quy mô lớn hơn cũng đã là một mối đe dọa cực kỳ đáng ngại”**, đồng thời nhấn mạnh *tài sản DeFi bị bỏ quên và mã nguồn đã lỗi thời đang là đích ngắm hàng đầu*.
Diễn biến này trùng với làn sóng vốn khổng lồ đổ vào ngành **AI**: OpenAI, Anthropic, xAI và nhiều doanh nghiệp khác nhận được nguồn tài trợ lớn, thúc đẩy công nghệ tăng tốc, kéo theo hệ lụy trực tiếp tới hệ sinh thái **DeFi**.
Vấn đề nằm ở chỗ, **bên tấn công đang chạy nhanh hơn bên phòng thủ**. Trong thị trường **DeFi** trị giá khoảng 130 tỷ USD, các công ty bảo mật chỉ mới bắt đầu thử nghiệm tích hợp **AI**, trong khi hacker đã tận dụng chúng một cách chủ động và tinh vi.
Gerrit Hall, đồng sáng lập nền tảng bảo mật Firefan, cảnh báo: **“Sự bùng nổ của các AI coding agent khiến DeFi hiện tại trở nên quá rủi ro. Năng lực tấn công đang được cải thiện nhanh hơn rất nhiều so với công nghệ phòng thủ.”**
từ **AI**, từ **DeFi**, từ **bảo mật DeFi**
---
AI đang thay đổi “bài toán kinh tế” của các vụ hack DeFi
-----------------------------------------------
Trước đây, việc phân tích lỗ hổng trong mã nguồn hợp đồng thông minh đòi hỏi nhiều thời gian, nhân lực và chi phí, buộc hacker chỉ tập trung vào các dự án có **tổng giá trị khóa (TVL)** lớn, tiền “dày” mới đáng công. Khi **AI** xuất hiện và tự động hóa các khâu lặp đi lặp lại, toàn bộ cấu trúc chi phí bị đảo lộn.
Giờ đây, **các lỗ hổng chỉ đáng giá vài trăm USD cũng trở nên “đáng hack”**. Do chi phí phân tích giảm sâu nhờ **AI**, mô hình “đánh nhiều vụ nhỏ, ăn chắc mặc bền” bắt đầu có tính khả thi. Hay nói cách khác, hacker có thể “quét hàng loạt, khai thác theo số lượng” thay vì chỉ nhắm vài mục tiêu giá trị lớn.
Theo nghiên cứu nội bộ của Anthropic (ngày, cùng tháng cùng năm, thông tin tham khảo từ báo cáo kỹ thuật nội bộ), các **AI agent** đã thử tấn công lại 405 hợp đồng thông minh từng bị hack trong thực tế và **tái hiện thành công tới 63% vụ việc**. Về mặt lý thuyết, số tiền có thể chiếm đoạt lên tới khoảng **4,6 triệu USD (tương đương khoảng 6,9 tỷ đồng)**.
Không chỉ dừng lại ở dữ liệu cũ, nhóm nghiên cứu còn cho **AI** phân tích **2.849 hợp đồng mới triển khai** và phát hiện **2 lỗ hổng mới**, với doanh thu tiềm năng tầm **3.694 USD (khoảng 5,56 triệu đồng)**. Chi phí để vận hành quá trình này vào khoảng **3.476 USD**, cho thấy **mô hình “hack tự động sinh lời” dựa trên AI đã không còn là viễn cảnh xa vời**.
bình luận: Nếu mô hình này được tối ưu hơn (giảm chi phí chạy AI, tăng tỉ lệ tìm thấy lỗ hổng), ta sẽ tiến rất gần tới “máy in tiền” cho hacker – một bot AI chạy 24/7, âm thầm quét toàn bộ DeFi để kiếm từng khoản nhỏ nhưng đều đặn.
từ **AI tấn công**, từ **hợp đồng thông minh**
---
Dấu vết AI trong các vụ hack DeFi đã xuất hiện rõ rệt
--------------------------------------------
Các chuyên gia bảo mật nhận định, trong nhiều vụ tấn công gần đây, **dấu hiệu sử dụng AI đã hiện lên rất rõ**. Stephen Ajayi từ nền tảng bảo mật Haccon phân tích, **“một mẫu tấn công giống hệt nhau lặp lại đồng thời ở nhiều hợp đồng là đặc trưng của cơ chế dò quét tự động bởi AI”**.
Một chỉ báo khác là **tốc độ và quy mô quét hợp đồng**. Ngày càng xuất hiện nhiều trường hợp **hàng nghìn hợp đồng thông minh bị quét chỉ trong vài phút** – điều gần như bất khả thi nếu con người thực hiện thủ công.
Một ví dụ điển hình là vụ hack **khoảng 26 triệu USD (tương đương 391 tỷ đồng)** nhắm vào dự án *Truebit* trong thời gian gần đây (theo tổng hợp từ nhiều báo cáo bảo mật trong ngành ngày). Vụ tấn công khai thác **lỗi trong logic tính giá** của một đoạn mã đã tồn tại hơn 5 năm mà không được cập nhật. Đây chính là kiểu sai sót mà **AI đặc biệt giỏi trong việc lần ra** khi được giao nhiệm vụ “đào bới lại” các codebase cũ.
bình luận: Điểm đáng sợ nằm ở chỗ, rất nhiều dự án DeFi từng “qua audit”, từng hoạt động ổn định nhiều năm, nay lại trở thành mục tiêu vì chúng sở hữu “mã cũ + tài sản ngủ quên” – đúng thứ mà AI có thể tìm và khai thác ồ ạt.
từ **tấn công DeFi**, từ **hack DeFi bằng AI**
---
Mô hình “audit một lần rồi thôi” không còn phù hợp trong kỷ nguyên AI
--------------------------------------------------------
Giới chuyên gia đồng loạt cho rằng **chuẩn an ninh của DeFi cần phải được viết lại**. Cách tiếp cận “audit một lần trước khi triển khai, sau đó yên tâm vận hành” đã lỗi thời trong bối cảnh **AI liên tục rà quét lại cả những đoạn mã cũ từ nhiều năm trước**.
Gaby Urutia nhấn mạnh, **“Cụm từ ‘đã audit rồi’ không còn đủ sức nặng nữa. Khi kẻ tấn công liên tục tái phân tích code quá khứ, mọi rủi ro cũ đều có thể bị ‘kích hoạt lại’ bất cứ lúc nào.”**
Giải pháp được đề xuất là **chuyển sang mô hình giám sát liên tục bằng AI**. Thay vì để hacker là bên duy nhất sử dụng AI khai thác lỗ hổng, các dự án DeFi và công ty bảo mật phải:
- triển khai **AI để quét mã định kỳ và theo thời gian thực**,
- áp dụng **kiểm thử xâm nhập tự động (automated adversarial testing)**,
- xây dựng hệ thống cảnh báo sớm khi hành vi bất thường bắt đầu xuất hiện trên hợp đồng thông minh.
Một số thành quả ban đầu đã được ghi nhận. Công ty bảo mật Octane Security gần đây cho biết, họ đã sử dụng công cụ **AI** để phát hiện một lỗi nghiêm trọng trong **Nethermind** – một client thực thi của **Ethereum(ETH)**. Lỗ hổng này, nếu bị khai thác, có thể gây ra hậu quả lớn ở cấp độ hạ tầng mạng.
Tuy vậy, thách thức phía phòng thủ vẫn rất lớn. Cơ chế **log, giám sát và truy vết** hiện tại chưa đủ chi tiết để xác định chắc chắn **AI có tham gia vào quá trình tấn công hay không**, gây khó khăn cho việc điều tra, quy trách nhiệm và xây dựng chuẩn mực kiểm toán mới.
bình luận: Nói ngắn gọn, *AI đang buộc DeFi phải chuyển từ “phòng thủ theo đợt” sang “phòng thủ liên tục”*. Ai không tự động hóa bảo mật bằng AI, về lâu dài gần như mặc định bị xếp vào nhóm “mục tiêu mềm”.
từ **bảo mật DeFi bằng AI**, từ **AI phòng thủ**
---
DeFi bước vào kỷ nguyên “AI đấu AI”
-----------------------------
Nhìn từ toàn cảnh, **hệ sinh thái DeFi đang bước vào cuộc chạy đua vũ trang mới: AI tấn công vs AI phòng thủ**. Một bên là hacker sử dụng **AI** để:
- quét hàng loạt hợp đồng thông minh,
- tối ưu hóa chi phí tấn công,
- thử nghiệm lại kho dữ liệu các vụ hack cũ,
- “thu gom” các lỗ hổng nhỏ nhưng dàn trải.
Bên còn lại là các dự án và công ty bảo mật buộc phải **ứng dụng AI để phòng thủ**, từ audit liên tục, phát hiện bất thường on-chain đến mô phỏng tấn công trước khi hacker thực sự ra tay.
Trong vài năm tới, **DeFi** nhiều khả năng sẽ trải qua giai đoạn “thanh lọc khắc nghiệt”, nơi những dự án:
- dùng mã cũ, thiếu bảo trì,
- không cập nhật quy trình audit,
- không tích hợp lớp **bảo mật AI**,
sẽ đứng trước nguy cơ bị đánh sập hoặc mất niềm tin nghiêm trọng từ nhà đầu tư.
Kết lại, trong kỷ nguyên **AI**, **điểm yếu lớn nhất của DeFi không chỉ là lỗi code, mà là ảo tưởng an toàn sau một lần audit**. Khi hacker dùng **AI** để đảo tung quá khứ, **bảo mật DeFi** chỉ có thể tồn tại nếu chấp nhận một thực tế mới: **AI phải trở thành tuyến phòng thủ đầu tiên, chứ không còn là lựa chọn thêm cho “đẹp hồ sơ”**.
từ **AI**, từ **DeFi**, từ **bảo mật DeFi**, từ **hack DeFi bằng AI**
Bình luận 0