Một nghiên cứu mới đây do công ty trí tuệ nhân tạo (AI) Anthropic và nhóm nghiên cứu bảo mật MATS (Machine Learning Alignment & Theory Scholars) công bố cho thấy AI hiện đại có thể tập thể phát hiện lỗ hổng bảo mật trong hợp đồng thông minh và phát triển mã độc tương ứng, với tổng giá trị vụ tấn công mô phỏng lên tới 4,6 triệu USD (tương đương khoảng 67,6 tỷ đồng).
Theo công bố từ nhóm Red Team của Anthropic ngày 17 (giờ địa phương), các mô hình AI hiện có trên thị trường đã đạt đến trình độ kỹ thuật cho phép chúng tìm ra và khai thác điểm yếu trong các hợp đồng thông minh một cách gần như tự động. Red Team là nhóm nội bộ chuyên đóng vai kẻ xấu để kiểm tra mức độ dễ bị khai thác của mô hình AI.
Báo cáo cho thấy các sản phẩm trí tuệ nhân tạo như Claude Opus 4.5 và Claude Sonnet 4.5 của Anthropic, cùng với GPT-5 của OpenAI, sau khi cập nhật dữ liệu huấn luyện gần đây, đã phối hợp tạo ra phương án khai thác lỗ hổng hợp đồng thông minh có giá trị mô phỏng lên tới 4,6 triệu USD.
Không chỉ dừng lại ở việc tấn công lý thuyết, nhóm nghiên cứu thậm chí còn tiến hành ứng dụng các mô hình AI nói trên vào 2.849 hợp đồng thông minh mới – những hợp đồng không ghi nhận bất kỳ lỗi bảo mật nào trước đó. Kết quả, Claude Sonnet 4.5 và GPT-5 đã phát hiện hai điểm yếu dạng “từ”Zero-Day, tạo ra mã khai thác có thể dẫn đến thiệt hại ước tính 3.694 USD (khoảng 543 triệu đồng). Điều đáng chú ý là chi phí sử dụng GPT-5 API để thực hiện thử nghiệm chỉ là 3.476 USD (tức khoảng 510 triệu đồng), cho thấy lợi nhuận khai thác có thể vượt chi phí đầu tư ban đầu.
“Thí nghiệm này cho thấy AI hoàn toàn có thể thực hiện các cuộc tấn công tự động sinh lợi ngay trong môi trường thực tế” – nhóm nghiên cứu nhận định trong báo cáo. “Do đó, việc thiết lập giải pháp phòng thủ chủ động sử dụng AI là điều cực kỳ cấp thiết.”
“từ”AI và “từ”hợp đồng thông minh – vốn là trung tâm của ứng dụng blockchain – nay đang đứng trước mối đe dọa ngày càng gia tăng. “từ”AI không chỉ giúp kết nối và tối ưu hóa quy trình mà giờ đây đang dần trở thành công cụ nguy hiểm có thể xuyên thủng các nền tảng tài chính phi tập trung (DeFi), nếu không có biện pháp kiểm soát.
“bình luận”: Đây là lời cảnh tỉnh rõ ràng với tất cả những đơn vị xây dựng và vận hành nền tảng blockchain – từ cá nhân nhà phát triển đến các công ty quy mô lớn – rằng “từ”AI dễ dàng bị lạm dụng để tìm ra lỗ hổng, buộc toàn ngành phải nâng cao nhận thức và đầu tư nhiều hơn cho khâu kiểm tra tối ưu hóa bảo mật trước khi triển khai.
Từ góc nhìn chiến lược, báo cáo cũng cung cấp một số gợi ý đáng chú ý:
- Cần tích hợp quy trình kiểm tra bảo mật bằng AI vào giai đoạn phát triển hợp đồng thông minh
- Xây dựng hệ thống phát hiện tự động và phản ứng với lỗ hổng “từ”Zero-Day
- Thêm các bài kiểm tra AI định kỳ vào quy trình kiểm toán bảo mật định chuẩn
“bình luận”: AI có thể là con dao hai lưỡi – hoặc trở thành hàng rào bảo vệ, hoặc là kẻ xuyên phá hệ thống. Đã đến lúc ngành “từ”tiền mã hóa cần nhìn nhận rõ ràng vai trò của AI trong lĩnh vực an ninh blockchain và hành động một cách chủ động.
Các bên trong ngành – từ nhà đầu tư, công ty phát triển, đến tổ chức tài chính sử dụng blockchain – cần lập kế hoạch kiểm soát rủi ro chặt chẽ hơn trong thời đại “từ”AI lên ngôi.
Bình luận 0