Back to top
  • 공유 Chia sẻ
  • 인쇄 In
  • 글자크기 Cỡ chữ
URL đã được sao chép

Mỹ giữ nguyên chỉ định 'rủi ro an ninh quốc gia' với Anthropic, ưu tiên kiểm soát AI phục vụ quân sự

Mỹ giữ nguyên chỉ định 'rủi ro an ninh quốc gia' với Anthropic, ưu tiên kiểm soát AI phục vụ quân sự / Tokenpost

Mỹ giữ nguyên chỉ định *“rủi ro chuỗi cung ứng an ninh quốc gia”* với Anthropic, ưu tiên quyền kiểm soát AI của chính phủ

Theo Bloomberg đưa tin ngày 8 (giờ địa phương), tòa phúc thẩm liên bang Mỹ đã bác yêu cầu khẩn cấp của công ty trí tuệ nhân tạo Anthropic về việc tạm dừng chỉ định *“rủi ro chuỗi cung ứng an ninh quốc gia”* đối với một số sản phẩm của hãng. Đồng nghĩa, các hạn chế mà Bộ Quốc phòng Mỹ áp lên sản phẩm Anthropic vẫn tiếp tục có hiệu lực, và tòa án khẳng định ưu tiên cho quyền kiểm soát công nghệ AI của chính phủ trong bối cảnh an ninh – quốc phòng.

Hội đồng gồm 3 thẩm phán cho rằng lợi ích của chính phủ trong việc “kiểm soát cách thức và đối tác cung cấp, quản lý các công nghệ AI cốt lõi trong tình huống xung đột quân sự” lớn hơn thiệt hại mà Anthropic có thể phải gánh chịu. Anthropic lập luận rằng việc bị gắn nhãn *“rủi ro an ninh quốc gia”* gây tổn thất tài chính và uy tín nghiêm trọng, nhưng lập luận này không đủ sức thuyết phục tòa thay đổi quyết định của chính phủ.

Nguồn cơn tranh chấp bắt đầu từ hợp đồng được Anthropic ký với Bộ Quốc phòng vào tháng 7 năm 2025. Hai bên khi đó bàn thảo phương án đưa mô hình AI Claude của Anthropic vào mạng lưới tuyệt mật, trở thành một trong những mô hình ngôn ngữ lớn đầu tiên được sử dụng trong môi trường quân sự mật. Tuy nhiên, đến tháng 2 năm nay, đàm phán đổ vỡ. Chính phủ Mỹ muốn tái thương lượng điều khoản, yêu cầu không giới hạn việc sử dụng công nghệ cho mục đích quân sự. Ngược lại, Anthropic khẳng định công nghệ của mình không được phép phục vụ cho *vũ khí tự động gây chết người* hoặc các chương trình *giám sát quy mô lớn nhằm vào công dân Mỹ*.

Ngay sau đó, vào cuối tháng 2, Tổng thống Trump ra lệnh cho toàn bộ cơ quan liên bang ngừng sử dụng sản phẩm Anthropic. Công ty đáp trả bằng đơn kiện nộp lên tòa án liên bang vào tháng 3, cáo buộc chính quyền phát động một “chiến dịch trả đũa phi pháp”. Tòa án quận Bắc California trong cùng tháng đã chấp thuận một phần yêu cầu khẩn cấp của Anthropic đối với quyết định của Bộ Quốc phòng, thậm chí mô tả chỉ đạo của Trump là mang màu sắc “độc đoán kiểu Orwell”. Tuy nhiên, do cấu trúc của luật đấu thầu và mua sắm liên bang, Anthropic buộc phải theo đuổi song song hai quy trình pháp lý khác nhau: một tại tòa California, và một tại tòa phúc thẩm ở Washington D.C. liên quan trực tiếp đến chỉ định *“rủi ro chuỗi cung ứng an ninh quốc gia”*.

Trong phán quyết mới, tòa phúc thẩm thừa nhận Anthropic có nguy cơ chịu một số thiệt hại “khó có thể đảo ngược hoàn toàn”, từ doanh thu hợp đồng liên bang bị đình trệ đến rủi ro bị gắn mác *“không đáng tin cậy”* trong chuỗi cung ứng quốc phòng. Tuy vậy, tòa vẫn kết luận rằng “lợi ích của chính phủ quan trọng hơn”, đặc biệt trong việc duy trì khả năng chủ động lựa chọn, kiểm soát các hệ thống AI được triển khai trong hạ tầng quân sự và an ninh.

Quyền Bộ trưởng Tư pháp Mỹ Todd Blanche viết trên X rằng đây là “một chiến thắng áp đảo cho năng lực sẵn sàng quân sự”, đồng thời nhấn mạnh “quyền hạn quân sự và quyền kiểm soát tác chiến thuộc về Tổng thống và Bộ Quốc phòng”.

bình luận Việc **Anthropic** – một trong các công ty AI hàng đầu Mỹ – bị giữ nguyên chỉ định *“rủi ro an ninh quốc gia”* là tín hiệu rõ ràng về xu hướng xem AI như tài sản an ninh chiến lược, hơn là chỉ là công nghệ thương mại. Đây cũng là lần đầu tiên một doanh nghiệp AI Mỹ bị áp dụng cơ chế giám sát dạng này, vốn trước đây chủ yếu nhắm vào nhà cung cấp nước ngoài.

Trong ngành, nhiều ý kiến cho rằng vụ việc có thể trở thành cột mốc định hình mối quan hệ giữa Chính phủ Mỹ và doanh nghiệp AI trong thời gian tới. Một mặt, Washington muốn đảm bảo mọi công nghệ AI then chốt dùng trong quân đội, tình báo, hoặc hạ tầng trọng yếu đều nằm trong vùng kiểm soát chặt chẽ, kể cả về mặt đối tác triển khai. Mặt khác, các công ty như Anthropic lại muốn duy trì *tiêu chuẩn đạo đức* và quyền tự quyết về cách công nghệ của họ được sử dụng, nhất là với các ứng dụng liên quan vũ khí tự động và giám sát công dân.

bình luận Nếu áp lực của chính phủ tiếp tục tăng, các doanh nghiệp AI có thể phải chọn giữa: (1) chấp nhận yêu cầu sử dụng cho mục đích quân sự – tình báo để đổi lấy hợp đồng béo bở và vị thế trong hệ sinh thái an ninh quốc gia, hoặc (2) giữ nguyên giới hạn đạo đức nhưng đánh đổi bằng việc mất thị phần trong mảng khách hàng nhà nước. Quyết định của tòa phúc thẩm đứng về phía chính phủ lần này nhiều khả năng sẽ khiến cán cân nghiêng hơn về phương án thứ nhất.

Bởi đây là tiền lệ đầu tiên áp cho một công ty AI trong nước, giới phân tích dự báo các tập đoàn công nghệ khác – từ nhà cung cấp hạ tầng đám mây đến đơn vị phát triển mô hình nền tảng – đều có thể bị kéo vào khuôn khổ *“rủi ro chuỗi cung ứng an ninh quốc gia”* trong tương lai. Khi đó, xung đột giữa nhu cầu mở rộng kinh doanh toàn cầu của doanh nghiệp và yêu cầu kiểm soát, ưu tiên an ninh của chính phủ có khả năng xảy ra thường xuyên hơn, đặc biệt trong bối cảnh cạnh tranh công nghệ, quân sự giữa các cường quốc ngày càng gay gắt.

Trong bức tranh rộng hơn, vụ Anthropic cho thấy quá trình *“an ninh hóa”* AI tại Mỹ đang tăng tốc. Khi công nghệ trí tuệ nhân tạo ngày càng được coi là một lớp hạ tầng an ninh cốt lõi, các doanh nghiệp công nghệ sẽ phải chuẩn bị cho việc hoạt động của mình bị chi phối mạnh hơn bởi luật an ninh quốc gia, luật mua sắm quốc phòng và các cơ chế giám sát tương tự.

<Bản quyền ⓒ TokenPost, nghiêm cấm sao chép và phân phối trái phép>

Phổ biến nhất

Các bài viết liên quan khác

Bình luận 0

Mẹo bình luận

Bài viết tuyệt vời. Mong có bài tiếp theo. Phân tích xuất sắc.

0/1000

Mẹo bình luận

Bài viết tuyệt vời. Mong có bài tiếp theo. Phân tích xuất sắc.
1