Back to top
  • 공유 Chia sẻ
  • 인쇄 In
  • 글자크기 Cỡ chữ
URL đã được sao chép

AI Claude của Anthropic bị Lầu Năm Góc gạt khỏi mạng mật vì từ chối gỡ ‘hàng rào an toàn’, OpenAI thế chỗ giữa bão tranh cãi an ninh quốc gia

AI Claude của Anthropic bị Lầu Năm Góc gạt khỏi mạng mật vì từ chối gỡ ‘hàng rào an toàn’, OpenAI thế chỗ giữa bão tranh cãi an ninh quốc gia / Tokenpost

앤스로픽(Anthropic) và mô hình *từ*Claude* từ* đang trở thành tâm điểm tranh cãi tại Mỹ sau khi bị Bộ Quốc phòng xem là *từ*“rủi ro chuỗi cung ứng” (Supply Chain Risk)* từ* và trên thực tế bị gạt khỏi mạng lưới tuyệt mật, dù trước đó vừa giành được hợp đồng trị giá *từ*200 triệu USD* từ*. Câu hỏi tưởng như “thủ tục” – “*từ*AI của chúng tôi được dùng vào việc gì?* từ*” – lại trở thành mồi lửa, nhất là sau những nghi vấn *từ*Claude* từ* đã hỗ trợ chiến dịch mật nhằm bắt giữ Tổng thống Venezuela *từ*Nicolás Maduro* từ*. Nhiều chuyên gia nhận định, cuộc tranh luận về *từ*“hàng rào an toàn” (guardrails)* từ* của AI đã bị đẩy lên thành vấn đề *từ*an ninh quốc gia* từ*.

Theo tường thuật được công bố trong nước Mỹ ngày 20 tháng 2 (giờ địa phương), *từ*Anthropic* từ* cùng *từ*Palantir(PLTR)* từ* đã đạt cột mốc lớn vào tháng 11 năm 2024 khi trở thành những nhà cung cấp *từ*“frontier AI”* từ* đầu tiên được triển khai trực tiếp trên mạng tuyệt mật của Bộ Quốc phòng Mỹ. Ban đầu, *từ*Claude* từ* được dùng cho các nhiệm vụ phân tích thông tin và hỗ trợ lập kế hoạch, sau đó nhanh chóng mở rộng sang hỗ trợ tác chiến trên không gian mạng, mô phỏng – diễn tập chiến tranh, cũng như các bài toán mô hình hóa chiến lược. Đến tháng 7 năm 2025, tổng giá trị hợp đồng đã lên tới khoảng *từ*200 triệu USD* từ*, và Lầu Năm Góc đánh giá hệ thống AI này ở mức *từ*“nhiệm vụ then chốt” (mission‑critical)* từ* – nghĩa là khó có thể thay thế trong ngắn hạn.

Sang tháng 1 năm 2026, bối cảnh thay đổi đột ngột khi truyền thông Mỹ đưa tin về một *từ*chiến dịch quân sự tuyệt mật tại Venezuela* từ*, trong đó lực lượng Mỹ được cho là đã sử dụng công cụ AI để truy vết, lên kế hoạch và hỗ trợ chiến dịch bắt giữ *từ*Nicolás Maduro* từ*. Trong loạt thông tin rò rỉ, *từ*Claude* từ* bị nêu đích danh là một trong những mô hình được gọi vào quy trình phân tích. Ngay sau đó, *từ*Anthropic* từ* đã yêu cầu *từ*Palantir* từ* làm rõ: *từ*“Chính xác công nghệ của chúng tôi đã được dùng như thế nào trong chiến dịch đó?”* từ*. Trong môi trường doanh nghiệp thông thường, đây là một bước *due diligence* tiêu chuẩn để kiểm soát rủi ro sử dụng sai mục đích. Tuy nhiên, theo các nguồn tin ẩn danh từ Lầu Năm Góc, câu hỏi này lại bị giới quân sự diễn giải như một hành vi *“chống lệnh”* và can thiệp vào bí mật tác chiến. *Bình luận*: Chính khoảnh khắc này đã biến yêu cầu *từ*“minh bạch về mục đích sử dụng”* từ* thành một lời cáo buộc *từ*“đe dọa an ninh quốc gia”* từ* – đặt doanh nghiệp AI vào thế đối đầu trực diện với bộ máy an ninh.

Diễn biến leo thang nhanh chóng trong tuần cuối cùng của tháng 2 năm 2026. Theo một báo cáo điều tra được công bố ngày 28 (giờ địa phương), ngày 24 tháng 2, Bộ trưởng Chiến tranh Mỹ *từ*Pete Hegseth* từ* đã triệu tập Giám đốc điều hành *từ*Anthropic* từ* là *từ*Dario Amodei* từ* đến Washington. Tại cuộc gặp, ông Hegseth được cho là đã yêu cầu *từ*“gỡ bỏ toàn bộ hàng rào an toàn của Claude”* từ*, cho phép mô hình này hỗ trợ từ giám sát quy mô lớn trong nội địa cho đến các hệ thống vũ khí hoàn toàn tự động, không cần con người phê duyệt lệnh khai hỏa. Thời hạn được ấn định cụ thể: *17 giờ 01 phút ngày 27 tháng 2 (giờ miền Đông Mỹ)*.

Ngày 26 tháng 2, *từ*Dario Amodei* từ* công bố lập trường chính thức: *từ*“Không”* từ*. Ông đưa ra hai *“lằn ranh đỏ”* mà *từ*Anthropic* từ* sẽ không vượt qua, kể cả khi đối tác là Chính phủ Mỹ:

- Thứ nhất, *từ*phản đối giám sát nội địa quy mô lớn* từ*. Amodei cho rằng việc để AI tự động kết hợp dữ liệu định vị, lịch sử duyệt web, hồ sơ tài chính… để lập hồ sơ toàn diện về từng cá nhân sẽ khiến năng lực giám sát thực tế vượt xa mọi khung pháp lý hiện hành.

- Thứ hai, *từ*phản đối vũ khí hoàn toàn tự động* từ*. Theo ông, với mức độ tin cậy của *từ*frontier AI* từ* hiện nay, loại bỏ hoàn toàn con người khỏi quá trình ra quyết định “sinh – sát” là một rủi ro không thể chấp nhận, bất kể mục tiêu là tăng tốc phản ứng quân sự hay giảm tổn thất nhân lực.

Amodei đề nghị một phương án dung hòa: tiếp tục hợp tác nghiên cứu – phát triển với Bộ Quốc phòng để cải thiện độ tin cậy của AI trong môi trường quân sự, kèm các cơ chế giám sát độc lập. Tuy nhiên, theo nguồn tin từ Lầu Năm Góc, đề xuất này bị bác bỏ.

Căng thẳng lập tức bùng nổ trên không gian công khai. Cùng ngày 26 tháng 2, Thứ trưởng Quốc phòng *từ*Emil Michael* từ* đã lên mạng xã hội công khai chỉ trích Amodei, gọi ông là “ngây thơ về an ninh quốc gia” và ám chỉ *từ*Anthropic* từ* *“đặt lợi ích thương hiệu lên trên an toàn của người Mỹ”*. Sau khi thời hạn 17 giờ 01 phút ngày 27 tháng 2 trôi qua mà không có sự nhượng bộ, Tổng thống *từ*Trump* từ* được cho là đã chỉ đạo toàn bộ cơ quan liên bang *ngừng sử dụng sản phẩm của Anthropic*, đồng thời ông *từ*Pete Hegseth* từ* kích hoạt điều khoản trong *từ*Đạo luật An ninh Chuỗi cung ứng Mua sắm Liên bang năm 2018 (FASCSA)* từ* để chỉ định *từ*Anthropic* từ* là *từ*“rủi ro chuỗi cung ứng” (Supply Chain Risk)* từ*.

Theo luật này, một khi bị gắn nhãn *từ*“Supply Chain Risk”* từ*, doanh nghiệp gần như bị *“rút phích cắm”* khỏi toàn bộ hệ sinh thái mua sắm liên bang – một dạng *từ*“công tắc hủy diệt” (killswitch)* từ* về mặt thương mại. Biện pháp này trước đây chủ yếu nhắm vào các công ty nước ngoài như Huawei hay Kaspersky, với mục tiêu loại bỏ khỏi chuỗi cung ứng nhà nước những nhà cung cấp có thể bị nước ngoài kiểm soát. Giờ đây, nó được áp dụng với một startup AI Mỹ, và ảnh hưởng lan ra cả hệ sinh thái: từ nhà thầu quốc phòng đến các startup nhỏ dùng lại API *từ*Claude* từ*, tất cả buộc phải cắt hợp đồng nếu không muốn vi phạm quy định liên bang.

*Bình luận*: Điểm đáng chú ý là cáo buộc *từ*“rủi ro chuỗi cung ứng”* từ* ở đây không xuất phát từ nguồn gốc quốc tịch hay nguy cơ gián điệp quen thuộc, mà từ *từ*bất đồng về chuẩn mực an toàn AI* từ* – một tiền lệ có thể khiến mọi startup AI tham gia hợp đồng quân sự đều phải cân nhắc kỹ “lằn ranh đạo đức” của mình.

Trớ trêu thay, cùng ngày 27 tháng 2, chỉ vài giờ sau khi *từ*Anthropic* từ* bị gạt khỏi mạng mật, *từ*OpenAI* từ* được thông báo đã ký hợp đồng thay thế với Bộ Quốc phòng Mỹ, cũng cho việc triển khai *từ*frontier AI* từ* vào hạ tầng tuyệt mật. Trong thông cáo sau đó, *từ*OpenAI* từ* khẳng định thỏa thuận với Lầu Năm Góc có *từ*“nhiều hàng rào an toàn hơn bất kỳ đợt triển khai AI mật nào trước đây”* từ*. Điều này mâu thuẫn trực diện với bối cảnh *từ*Anthropic* từ* bị loại bỏ chính vì *từ*“hàng rào an toàn”* từ*. Nói cách khác, vị trí vừa trống do một công ty bị trừng phạt vì “cứng rắn về an toàn” lại được lấp đầy bởi một đối thủ đang dùng *từ*“an toàn”* từ* như điểm khác biệt trong chiến lược kinh doanh.

Phản ứng dư luận lan rộng trong cuối tuần ngay sau đó. Theo dữ liệu mà hãng phân tích ứng dụng di động *Sensor Tower* công bố ngày 1 tháng 3 (giờ địa phương), lượng gỡ cài đặt ứng dụng *từ*ChatGPT* từ* tăng vọt *295% chỉ trong một ngày*. Trong khi đó, ứng dụng *từ*Claude* từ* leo lên vị trí số 1 trên App Store tại 7 quốc gia, bao gồm cả Mỹ, với lượng tải mới tăng mạnh. Khoảng 300 nhân viên *từ*Google(GOOGL)* từ* và hơn 60 nhân viên *từ*OpenAI* từ* đã ký tên vào một bức thư công khai ủng hộ *từ*Anthropic* từ*, kêu gọi thiết lập các chuẩn an toàn chung cho AI trong lĩnh vực quốc phòng. Trên mạng xã hội, hashtag *từ*#QuitGPT* từ* lan rộng, kêu gọi người dùng chuyển sang những nền tảng được xem là “ưu tiên an toàn hơn”.

Trước áp lực này, ngày 2 tháng 3, *từ*OpenAI* từ* công bố một số điều khoản bổ sung cho hợp đồng với Lầu Năm Góc. Những *từ*rào chắn* từ* mới bao gồm: cấm rõ ràng việc sử dụng mô hình để *từ*giám sát người Mỹ trong nước* từ*; quy định rằng việc Cơ quan An ninh Quốc gia Mỹ (NSA) truy cập hệ thống phải có phụ lục hợp đồng riêng; và giới hạn sử dụng dữ liệu cá nhân mua từ bên thứ ba (như dữ liệu vị trí, lịch sử trình duyệt, dữ liệu tài chính) cho mục đích quân sự. Tuy vậy, việc các điều khoản này chỉ xuất hiện *sau* cuối tuần khiến nhiều chuyên gia pháp lý lưu ý rằng bản hợp đồng ký ngày thứ Sáu có thể chưa hề chứa các hạn chế trên một cách rành mạch. *Bình luận*: Điều này làm dấy lên câu hỏi liệu *từ*OpenAI* từ* có thực sự đặt *từ*“guardrails”* từ* lên trước, hay chỉ đang điều chỉnh “hậu kỳ” theo phản ứng thị trường và áp lực xã hội.

Ở tầng sâu hơn, vấn đề không chỉ là *ai* ký được hợp đồng, mà là *từ*rủi ro kỹ thuật của vũ khí AI tự động* từ*. Theo một nghiên cứu được trích dẫn ngày 3 tháng 3 (giờ địa phương), khi mô phỏng xung đột quân sự với nhiều mô hình khác nhau – bao gồm GPT‑5.2, *từ*Claude Sonnet 4* từ* và Gemini 3 Flash – *95% kịch bản* cho thấy hệ thống AI lựa chọn triển khai *từ*vũ khí hạt nhân chiến thuật* từ* ở một số giai đoạn leo thang. Dù nhiều thông số của nghiên cứu chưa được công bố đầy đủ để giới học thuật thẩm định độc lập, con số này, nếu chính xác, cho thấy yêu cầu về *từ*vũ khí hoàn toàn tự động* từ* không chỉ là tranh luận đạo đức, mà còn chạm tới *giới hạn độ tin cậy* của các mô hình ngôn ngữ lớn trong môi trường chiến tranh.

Các chuyên gia chỉ ra ba dạng thất bại phổ biến của AI trong mô phỏng quân sự:

- *từ*Thiên lệch leo thang (escalation bias)* từ*: hệ thống có xu hướng chọn phương án “cứng rắn hơn” theo từng vòng đáp trả, dẫn tới vòng xoáy chiến tranh.

- *từ*Ảo giác (hallucination)* từ*: mô hình “bịa” thông tin hoặc suy ra mối đe dọa không tồn tại, nhưng vẫn trình bày với độ tự tin cao – cực kỳ nguy hiểm trong môi trường ra quyết định quân sự thời gian thực.

- *từ*Dễ bị tấn công bởi đầu vào thù địch (adversarial vulnerability)* từ*: chỉ cần điều chỉnh nhỏ trong dữ liệu đầu vào cũng có thể khiến mô hình đưa ra quyết định sai lầm nghiêm trọng.

Lịch sử đã có những ví dụ đau đớn về hệ thống quân sự tự động mắc lỗi: vụ tên lửa Patriot bắn nhầm máy bay đồng minh ở Iraq năm 2003, hay vụ chiến hạm Mỹ bắn rơi chuyến bay 655 của Iran Air năm 1988 do hiểu nhầm tín hiệu radar. Đó chỉ là các hệ thống tương đối *từ*đơn giản, dựa trên luật và ngưỡng cảnh báo* từ*. Với các mô hình ngôn ngữ lớn phức tạp và “hộp đen” hơn nhiều, việc kiểm soát và truy cứu trách nhiệm sau quyết định sai lầm càng khó khăn.

Một vấn đề khác là *từ*môi trường mạng tuyệt mật* từ* tự thân nó *ngăn cản giám sát độc lập*. Truy cập bị giới hạn nghiêm ngặt, dữ liệu không thể rời khỏi hệ thống, nên rất khó để các tổ chức độc lập hay nhà nghiên cứu bên ngoài kiểm chứng xem *từ*guardrails* từ* có được tuân thủ hay bị “vượt rào” trên thực tế. Bức tường bảo vệ bí mật an ninh quốc gia vô hình trung cũng chặn luôn mọi nỗ lực kiểm toán, đánh giá rủi ro từ bên ngoài. Trong bối cảnh đó, thông điệp của *từ*Dario Amodei* từ* có thể được tóm lược là: *từ*“Mục tiêu dùng AI cho quốc phòng không sai, nhưng lịch trình triển khai hiện tại quá nhanh so với năng lực công nghệ”* từ*.

Trong khi đó, tầm hiệu lực thực tế của nhãn *từ*“rủi ro chuỗi cung ứng”* từ* vẫn gây tranh cãi. Dù bị loại khỏi hợp đồng mới, một phóng sự của CBS phát sóng ngày 10 tháng 3 (giờ địa phương) cho biết *từ*Claude* từ* vẫn đang được sử dụng trong một số hệ thống quân sự hiện hành, bao gồm cả nhiệm vụ liên quan đến Iran. Lý do: công nghệ này đã được tích hợp quá sâu vào các quy trình và phần mềm hiện có, nên *không thể gỡ bỏ trong một sớm một chiều* mà không gây gián đoạn lớn tới an ninh. Câu hỏi đặt ra là: nếu chính phủ không thể thực thi ngay cả một lệnh “ngắt kết nối” tương đối đơn giản, thì họ sẽ làm thế nào để *từ*ép buộc tuân thủ guardrails* từ* với các nhà cung cấp AI trong tương lai?

Về phần mình, Bộ Quốc phòng giữ lập trường rõ ràng: *từ*doanh nghiệp không đặt chính sách quân sự* từ*. Quan điểm chính thức là các công ty AI chỉ là *từ*nhà cung cấp công nghệ* từ*, còn người quyết định cách sử dụng là quân đội và giới hoạch định chính sách, không phải kỹ sư hay lãnh đạo công ty. Ở chiều ngược lại, cộng đồng công nghệ và các tổ chức xã hội dân sự nhấn mạnh: *từ*“hỗ trợ quốc phòng”* từ* không đồng nghĩa với việc *từ*“ủy quyền quyền quyết định giết/chết cho một hệ thống AI chưa hoàn thiện”* từ*. Điểm chạm giữa hai bên chính là câu hỏi: khi *từ*an ninh quốc gia* từ* và *từ*an toàn AI* từ* cùng xuất hiện trong một câu, thì *ai* được nắm quyền quyết định cuối cùng?

Tác động thị trường cũng không nhỏ. Vụ việc cho thấy một *từ*cấu trúc động lực (incentive structure)* từ* mới: *từ*“hợp tác thì có hợp đồng; phản kháng thì có nguy cơ vào danh sách đen”* từ*. Điều này có thể khuyến khích một số startup AI im lặng chấp nhận yêu cầu của chính phủ, thay vì công khai đặt câu hỏi về chuẩn mực sử dụng vũ lực. Tuy vậy, phản ứng của người dùng (lượng gỡ cài đặt tăng vọt), làn sóng thư ngỏ từ nhân viên *từ*Google* từ*, *từ*OpenAI* từ* và các công ty khác, cùng tranh luận sôi nổi quanh các điều khoản *từ*guardrails* từ* cho thấy: hợp tác giữa doanh nghiệp AI và giới quốc phòng *không còn là các hợp đồng B2G âm thầm*, mà đã chuyển thành *trung tâm tranh luận xã hội*.

Trong câu chuyện *từ*Anthropic* từ* – *từ*Claude* từ* – Bộ Quốc phòng Mỹ – *từ*OpenAI* từ*, câu hỏi tưởng như đơn giản *từ*“AI của chúng ta đang được dùng vào việc gì?”* từ* đã trở thành phép thử cho ranh giới mới giữa *từ*quyền lực nhà nước* từ* và *từ*trách nhiệm của nhà phát triển AI* từ*. Khi các mô hình ngày càng mạnh hơn, câu hỏi đó sẽ không chỉ dành cho những hợp đồng tuyệt mật ở Washington, mà còn cho mọi doanh nghiệp AI đang cân nhắc bước vào thế giới quốc phòng – nơi mỗi “guardrail” không chỉ là vấn đề kỹ thuật, mà còn là lựa chọn chính trị và đạo đức.

<Bản quyền ⓒ TokenPost, nghiêm cấm sao chép và phân phối trái phép>

Phổ biến nhất

Các bài viết liên quan khác

Bình luận 0

Mẹo bình luận

Bài viết tuyệt vời. Mong có bài tiếp theo. Phân tích xuất sắc.

0/1000

Mẹo bình luận

Bài viết tuyệt vời. Mong có bài tiếp theo. Phân tích xuất sắc.
1