앤트로픽(Anthropic) vừa thông báo chỉ phân phối giới hạn mô hình AI mới *Claude Mythos Preview* cho một số doanh nghiệp được chọn, sau khi hệ thống này phát hiện hơn 10.000 lỗ hổng bảo mật trong các hệ điều hành và phần mềm phổ biến. Công ty lo ngại nếu năng lực tấn công của *Claude Mythos Preview* bị kẻ xấu khai thác, rủi ro an ninh mạng toàn cầu sẽ tăng mạnh.
Theo thông tin công bố, *Claude Mythos Preview* đã tìm ra hàng loạt lỗ hổng *nghiêm trọng* trên các hệ điều hành Windows, Linux, họ BSD, cùng nhiều ứng dụng web phổ biến. Anthropic cho biết kết quả này cho thấy tiềm năng dùng AI để *phòng thủ* mạng, nhưng đồng thời cảnh báo công nghệ tương tự có thể giúp tin tặc mở rộng quy mô và tăng tốc độ tấn công. Theo AllAboutAI đưa tin ngày 20 tháng 12 (giờ địa phương), các cuộc tấn công mạng dựa trên AI trong năm 2025 đã tăng 72% so với năm trước, và 87% tổ chức trên toàn cầu cho biết từng hứng chịu dạng tấn công này.
Để giảm thiểu rủi ro, Anthropic công bố thêm sáng kiến *từ Project Glasswing*. Hơn 40 doanh nghiệp và tổ chức lớn tham gia, gồm Amazon Web Services(AWS), Apple(AAPL), Cisco(CSCO), Google(GOOGL), JP Morgan(JPM), Linux Foundation, Microsoft(MSFT), Nvidia(NVDA)… Mục tiêu là chia sẻ thông tin về lỗi mà mô hình AI phát hiện, giúp cộng đồng mã nguồn mở và các nhà cung cấp phần mềm vá lỗ hổng nhanh hơn.
Một điểm đáng chú ý là *Claude Mythos Preview* đã khui ra nhiều lỗ hổng tồn tại hàng chục năm nhưng vẫn chưa được xử lý triệt để trong ngành. Anthropic cho biết có không ít lỗi bị bỏ mặc hơn 10–20 năm, trong đó trường hợp lâu đời nhất là một bug 27 năm tuổi trên OpenBSD (hiện đã được sửa). Mô hình cũng phát hiện lỗ hổng trong FFmpeg, FreeBSD, nhân Linux, các thành phần bảo mật như TLS, AES-GCM, SSH và một số thư viện quan trọng khác.
Anthropic nhấn mạnh 99% lỗ hổng mà hệ thống tìm được vẫn *chưa được vá*, nên công ty tạm thời chưa công bố chi tiết kỹ thuật để tránh nguy cơ bị khai thác ồ ạt. *bình luận* Động thái này phản ánh thế “con dao hai lưỡi” của AI trong an ninh mạng: cùng một năng lực phân tích mã nguồn ở quy mô lớn có thể vừa giúp gia cố phòng thủ, vừa giúp tinh vi hóa tấn công.
Về dài hạn, Anthropic tin rằng AI sẽ hỗ trợ tạo ra phần mềm an toàn hơn, tự động phát hiện và ngăn chặn lỗi bảo mật ngay từ khâu phát triển. Tuy nhiên trong giai đoạn *từ quá độ* hiện nay, khoảng cách giữa năng lực tấn công và khả năng phòng thủ vẫn rất lớn. Khi các *từ công cụ bảo mật dùng AI* lan rộng là xu hướng khó tránh, tốc độ doanh nghiệp chủ động kiểm tra, vá lỗi và triển khai giải pháp phòng thủ tự động sẽ trở thành yếu tố then chốt trong cuộc đua an ninh mạng toàn cầu.
Bình luận 0