Tổng thống Trump vừa yêu cầu các cơ quan liên bang dừng sử dụng hệ thống của **“Anthropic”**, nhưng chỉ vài giờ sau, quân đội Mỹ vẫn triển khai trí tuệ nhân tạo **“Claude”** của công ty này trong một chiến dịch không kích quy mô lớn nhằm vào Iran. Sự lệch pha giữa mệnh lệnh “chặn” từ Nhà Trắng và thực tế “vận hành” tại chiến trường cho thấy mức độ mà công nghệ **“AI quốc phòng”** đã ăn sâu vào hệ thống tác chiến của Mỹ.
Theo Wall Street Journal (WSJ) đưa tin ngày 24 (giờ địa phương), Bộ Chỉ huy Trung tâm Mỹ (CENTCOM), đơn vị phụ trách khu vực Trung Đông, đã sử dụng **“Claude”** để hỗ trợ lập kế hoạch và triển khai chiến dịch. Cụ thể, mô hình AI này được cho là tham gia phân tích thông tin tình báo, hỗ trợ nhận diện mục tiêu tiềm năng và chạy thử các kịch bản mô phỏng chiến trường. Việc **“AI”** vẫn hoạt động ngay cả sau khi có chỉ đạo chính trị cho thấy công cụ này đã được “gắn chặt” vào quy trình vận hành quân sự, khiến việc tách rời ngay lập tức gần như bất khả thi.
bình luận: Việc một lệnh hành chính không thể ngay lập tức gỡ bỏ **“AI”** khỏi quy trình tác chiến cho thấy khoảng cách ngày càng lớn giữa quyết sách chính trị và hạ tầng công nghệ đã được triển khai âm thầm nhiều năm.
Trong báo cáo của WSJ, nguồn tin cho biết Nhà Trắng dưới thời Trump đã yêu cầu các cơ quan liên bang chấm dứt hợp tác với **“Anthropic”** từ ngày thứ Sáu, đồng thời chỉ đạo Bộ Quốc phòng xem công ty này là một rủi ro an ninh tiềm tàng. Động thái cứng rắn này xuất hiện sau khi các cuộc đàm phán hợp đồng giữa chính phủ Mỹ và **“Anthropic”** đổ vỡ.
Trọng tâm tranh cãi nằm ở yêu cầu “sử dụng không giới hạn”. Phía quân đội muốn được phép dùng **“AI”** của **“Anthropic”** cho bất kỳ yêu cầu nào được xem là “hợp pháp” mà không phải chịu ràng buộc thêm từ phía nhà cung cấp. Tuy nhiên, **“Anthropic”** bị cho là đã từ chối điều kiện này, khiến toàn bộ thỏa thuận đổ bể. Nói cách khác, logic **“an ninh – mua sắm”** của Washington đã va chạm trực diện với nguyên tắc **“đạo đức – kiểm soát”** của một doanh nghiệp **“AI”** tư nhân.
bình luận: Đây là một ví dụ điển hình cho xung đột giữa nhu cầu triển khai **“AI quốc phòng”** ở quy mô lớn và nỗ lực duy trì “lằn ranh đỏ” về đạo đức của các công ty công nghệ.
Trên thực tế, **“Claude”** đã ăn sâu vào hạ tầng quốc phòng thông qua các hợp đồng nhiều năm với Lầu Năm Góc. Theo WSJ, **“Anthropic”** cùng một số phòng thí nghiệm **“AI”** lớn khác từng giành được gói hợp đồng trị giá tối đa 200 triệu USD với Bộ Quốc phòng Mỹ. Thông qua hợp tác với các đối tác như Palantir và Amazon Web Services (AWS), **“Claude”** đã được cấp phép hoạt động trong môi trường có dữ liệu mật và tham gia nhiều quy trình tác chiến. Điều này bao gồm hỗ trợ phân tích dữ liệu tình báo, tối ưu hóa luồng công việc chỉ huy – kiểm soát, cũng như mô phỏng kịch bản tác chiến trong các chiến dịch thật.
WSJ còn dẫn nguồn tin cho rằng **“Claude”** từng được sử dụng trong các nhiệm vụ trước đây, trong đó có một chiến dịch tại Venezuela hồi tháng 1, liên quan đến nỗ lực bắt giữ Tổng thống Nicolas Maduro. Tuy vậy, chi tiết về mức độ tham gia của **“AI”** trong chiến dịch này hiện vẫn dựa trên tường thuật từ truyền thông nước ngoài và cần thêm xác minh từ các bên liên quan.
bình luận: Nếu được xác nhận, đây sẽ là một trong những trường hợp hiếm hoi **“AI”** tham gia trực tiếp vào một chiến dịch dẫn đến mục tiêu bắt giữ một nguyên thủ quốc gia, làm dấy lên tranh cãi mới về ranh giới sử dụng **“AI quốc phòng”**.
Trong bối cảnh quan hệ với **“Anthropic”** rạn nứt, Bộ Quốc phòng Mỹ đã chủ động tìm kiếm nhà cung cấp thay thế. Theo WSJ, Lầu Năm Góc đã đạt được thỏa thuận với OpenAI để triển khai mô hình **“AI”** của hãng này vào các mạng lưới quân sự mật. Điều này có thể mở đường cho các hệ thống như GPT được tích hợp vào cùng chuỗi hạ tầng mà trước đó dành cho **“Claude”**. Câu hỏi đặt ra là liệu việc phân loại **“Anthropic”** như một “rủi ro chuỗi cung ứng” có dẫn đến tái cấu trúc sâu rộng hệ sinh thái **“AI quốc phòng”** hay chỉ dừng lại ở một số thay đổi mang tính tượng trưng.
Trả lời phỏng vấn ngày 24 (giờ địa phương), Giám đốc điều hành **“Anthropic”** Dario Amodei khẳng định công ty phản đối việc sử dụng **“AI”** cho “giám sát nội địa trên diện rộng” và “vũ khí hoàn toàn tự động”. Đây được xem là phản ứng công khai đầu tiên nhằm vào quyết định của chính phủ Mỹ khi liệt **“Anthropic”** vào diện “rủi ro chuỗi cung ứng” và yêu cầu các nhà thầu không được sử dụng sản phẩm của công ty trong một số hạng mục nhạy cảm.
Amodei nhấn mạnh rằng các quyết định quân sự then chốt phải luôn nằm trong sự kiểm soát của con người, không được giao phó hoàn toàn cho máy móc. Theo ông, công ty chấp nhận đánh mất một phần thị trường trong các gói thầu chính phủ nếu cái giá phải trả là vượt qua những giới hạn đạo đức đã đề ra.
bình luận: Phát biểu của Amodei cho thấy một đường ranh khá rõ ràng: **“Anthropic”** chấp nhận tham gia **“AI quốc phòng”** ở vai trò hỗ trợ phân tích và mô phỏng, nhưng không muốn bước sang vùng “vũ khí tự động sát thương” hay hệ thống giám sát hàng loạt trong nước.
Cuộc tranh cãi xoay quanh **“Claude”**, **“Anthropic”** và quyết định bất ngờ từ chính quyền Trump đang phơi bày tính hai mặt của **“AI”** trong lĩnh vực quân sự: vừa mang lại “hiệu quả tức thời” về phân tích, lập kế hoạch và triển khai tác chiến, vừa làm gia tăng rủi ro về kiểm soát, trách nhiệm pháp lý và an ninh chuỗi cung ứng. Trong thời gian tới, giới quan sát sẽ theo dõi sát cách mà chính quyền Trump hiện thực hóa lệnh “chặn” **“Anthropic”**, cũng như tốc độ mà quân đội Mỹ có thể thay thế hoặc tách dần các công cụ **“AI”** đã gắn chặt vào hạ tầng quốc phòng.
bình luận: Cân bằng giữa nhu cầu lợi thế chiến trường nhờ **“AI quốc phòng”** và yêu cầu bảo vệ giá trị dân chủ – nhân quyền sẽ là bài toán trung tâm không chỉ với Mỹ, mà với mọi quốc gia đang đẩy mạnh vũ khí hóa trí tuệ nhân tạo.
Bình luận 0