Back to top
  • 공유 Chia sẻ
  • 인쇄 In
  • 글자크기 Cỡ chữ
URL đã được sao chép

Anthropic đối đầu Lầu Năm Góc: Nguy cơ bị gắn mác rủi ro chuỗi cung ứng vì tranh cãi dùng AI quân sự

Anthropic đối đầu Lầu Năm Góc: Nguy cơ bị gắn mác rủi ro chuỗi cung ứng vì tranh cãi dùng AI quân sự / Tokenpost

Theo Financial Times đưa tin ngày 4 tháng 3 (giờ địa phương), Giám đốc điều hành Anthropic **“Dario Amodei”** đang thúc đẩy một thỏa hiệp với Bộ Quốc phòng Mỹ nhằm tránh nguy cơ bị đưa vào **“danh sách đen của chính phủ”** vì “rủi ro chuỗi cung ứng”. Nếu đàm phán đổ vỡ, Anthropic có thể bị gắn nhãn “rủi ro chuỗi cung ứng quốc gia”, qua đó gần như bị loại khỏi các hợp đồng quốc phòng và bị các nhà thầu quân sự Mỹ ngừng hợp tác.

Trong những tuần gần đây, Amodei được cho là đã bước vào các vòng thương lượng khẩn cấp với Thứ trưởng phụ trách Nghiên cứu & Kỹ thuật Bộ Quốc phòng Mỹ, **“Emil Michael”**, cùng một số quan chức liên bang khác. Trọng tâm của cuộc đàm phán là phạm vi Bộ Quốc phòng được phép tiếp cận và triển khai mô hình AI **“Claude”** của Anthropic trong môi trường quân sự. Nếu hai bên đạt được đồng thuận, Lầu Năm Góc sẽ tiếp tục được sử dụng công nghệ Anthropic mà không phải gắn nhãn công ty là “doanh nghiệp rủi ro chuỗi cung ứng”. Ngược lại, nếu bị áp dụng chỉ định này, Anthropic – start-up AI có trụ sở tại San Francisco – có nguy cơ bị cắt đứt các hợp đồng quốc phòng, còn các nhà thầu quốc phòng buộc phải chấm dứt quan hệ làm ăn với công ty.

Theo FT, mâu thuẫn bắt nguồn từ một chiến dịch do Mỹ tiến hành hồi tháng 1, nhằm vào nhà lãnh đạo Venezuela **“Nicolás Maduro”** với mục tiêu bắt giữ ông này. Nhóm nhân viên Anthropic được cho là đã phát hiện thông qua nhật ký hệ thống của Palantir rằng **“Claude”** đã được sử dụng trong tiến trình chiến dịch. Việc này làm dấy lên tranh cãi nội bộ về câu hỏi liệu cách dùng đó có vi phạm **“chính sách sử dụng chấp nhận được (Acceptable Use Policy)”** của Anthropic hay không. Làn sóng chất vấn bên trong công ty được đánh giá là đã làm lung lay niềm tin giữa Anthropic và Bộ Quốc phòng, đẩy hai bên vào thế đối đầu gay gắt hơn.

**“bình luận”**: Việc nhân viên tự phát hiện mô hình bị sử dụng trong một chiến dịch nhạy cảm, thông qua dữ liệu của bên thứ ba như Palantir, cho thấy bài toán kiểm soát chuỗi sử dụng (downstream use) của mô hình AI đang là lỗ hổng lớn – ngay cả với những công ty đặt “AI an toàn” làm trọng tâm như Anthropic.

Bộ Quốc phòng Mỹ hiện muốn có quyền sử dụng AI cho mọi mục đích được xem là **“hợp pháp (lawful)”**, với phạm vi giải thích tương đối rộng. Anthropic lo ngại rằng khái niệm “mục đích hợp pháp” có thể bị diễn giải theo hướng bao trùm cả các hoạt động **“giám sát quy mô lớn (mass surveillance)”** – điều công ty đã nhiều lần tuyên bố phản đối. Trong các tài liệu công khai, Anthropic nhấn mạnh lập trường giới hạn sử dụng AI cho **“vũ khí tự động hoàn toàn (fully autonomous weapons)”** và hệ thống giám sát đại trà, coi đây là trụ cột trong chiến lược **“AI an toàn”**. Chính sự va chạm trực tiếp giữa nguyên tắc này và yêu cầu vận hành linh hoạt của quân đội được cho là nguyên nhân khiến tiến trình đàm phán rơi vào bế tắc.

Financial Times cho biết sau khi Amodei từ chối tối hậu thư từ phía chính phủ, Tổng thống **“Trump”** đã chỉ đạo các cơ quan liên bang dừng sử dụng công nghệ của Anthropic, còn Bộ trưởng Quốc phòng **“Pete Hegseth”** ra quyết định xếp Anthropic vào diện **“rủi ro chuỗi cung ứng đối với an ninh quốc gia”**. Nếu quyết định này được duy trì, thiệt hại với Anthropic sẽ không chỉ dừng lại ở việc mất một hợp đồng riêng lẻ, mà có thể là bị gạt ra ngoài toàn bộ hệ sinh thái công nghiệp quốc phòng Mỹ.

Amodei cáo buộc Bộ Quốc phòng và **“OpenAI”** đã **“bóp méo và trình bày sai vấn đề”**, đồng thời ám chỉ Anthropic đang bị “đẩy ra bên lề” vì không ca ngợi Tổng thống Trump một cách tích cực như các đối thủ. Những cáo buộc này làm dấy lên lo ngại rằng các tranh luận chính sách công nghệ có thể bị cuốn sâu hơn vào vòng xoáy chính trị, khiến cuộc cạnh tranh giành hợp đồng AI với chính phủ trở nên khốc liệt và khó đoán.

**“bình luận”**: Nếu yếu tố “trung thành chính trị” thực sự tác động đến khả năng tiếp cận hợp đồng nhà nước, rủi ro quy định và rủi ro chính trị sẽ ngày càng trở thành biến số quan trọng trong chiến lược của các công ty AI, không kém gì năng lực công nghệ hay chi phí hạ tầng.

Anthropic trước đó đã cùng **“OpenAI”**, **“Google(GOOGL)”** và **“xAI”** giành được một gói hợp đồng trị giá lên tới 200 triệu USD (khoảng 2.968 tỉ đồng) từ Bộ Quốc phòng Mỹ, nhằm phát triển thế hệ **“AI chủ động (agentic AI)”** cho mục đích quân sự. Đây là thế hệ AI có khả năng tự đặt mục tiêu, chia nhỏ nhiệm vụ và triển khai thực thi, vượt xa mô hình hỏi–đáp thông thường. Trong lĩnh vực quân sự, **“agentic AI”** được kỳ vọng hỗ trợ phân tích thông tin, lập kế hoạch tác chiến, tối ưu hậu cần – qua đó trở thành “trợ lý số” cấp chiến dịch cho chỉ huy.

Giới quan sát cho rằng nếu đánh mất **“bàn đạp”** này, Anthropic sẽ chịu sức ép không nhỏ cả về đà tăng trưởng lẫn uy tín bên ngoài. Công ty lâu nay xây dựng hình ảnh **“lãnh đạo về AI an toàn”**, coi mức độ an toàn và khả năng kiểm soát rủi ro là lợi thế cạnh tranh với các đối thủ. Xung đột kéo dài với Bộ Quốc phòng Mỹ có thể khiến các khách hàng quy mô lớn – từ cơ quan chính phủ tới tập đoàn toàn cầu – đặt dấu hỏi về khả năng vừa duy trì nguyên tắc đạo đức, vừa linh hoạt đáp ứng yêu cầu sử dụng thực tế của Anthropic.

Ở góc độ rộng hơn, diễn biến lần này phơi bày bài toán chung của toàn ngành AI. Khi nhu cầu quốc phòng và an ninh quốc gia gia tăng, chính phủ sẽ muốn có **“không gian vận dụng rộng”**, trong khi các công ty AI lại nỗ lực giữ vững ranh giới đạo đức và chính sách nội bộ. Mâu thuẫn lợi ích đó hứa hẹn còn tái diễn ở nhiều trường hợp khác.

**“bình luận”**: Cách Anthropic và Bộ Quốc phòng Mỹ tìm ra công thức thỏa hiệp – từ ngôn từ trong hợp đồng đến cơ chế kiểm soát, giám sát sử dụng – nhiều khả năng sẽ trở thành hình mẫu tham chiếu cho các chuẩn mực mới trong thị trường **“AI quân sự”**. Đây có thể là phép thử đầu tiên, nhưng mang tính định hình lâu dài cho luật chơi giữa nhà nước và doanh nghiệp AI trong kỷ nguyên **“agentic AI”**.

<Bản quyền ⓒ TokenPost, nghiêm cấm sao chép và phân phối trái phép>

Phổ biến nhất

Các bài viết liên quan khác

Bài viết nổi bật

Western Union(WU) bắt tay Crossmint đưa USDPT stablecoin lên Solana(SOL) cho kiều hối xuyên biên giới

Bình luận 0

Mẹo bình luận

Bài viết tuyệt vời. Mong có bài tiếp theo. Phân tích xuất sắc.

0/1000

Mẹo bình luận

Bài viết tuyệt vời. Mong có bài tiếp theo. Phân tích xuất sắc.
1