Chính quyền Tổng thống Trump vừa xếp startup AI Anthropic vào diện “*từ*nguy cơ rủi ro chuỗi cung ứng*từ*”, khiến các hợp đồng trong lĩnh vực quốc phòng gần như bị chặn lại. Đáp lại, Anthropic đã đệ đơn kiện Bộ Quốc phòng Mỹ (DoD) và một số cơ quan liên bang, cho rằng đây là một dạng “*từ*danh sách đen trên thực tế*từ*” thiếu cơ sở pháp lý, buộc họ phải hành động để bảo vệ đối tác và khách hàng trong mảng quốc phòng.
Theo Financial Times (FT) đưa tin ngày (giờ địa phương), sau khi bị gắn nhãn “*từ*nguy cơ rủi ro chuỗi cung ứng*từ*”, Anthropic cho biết các giao dịch với nhà thầu quốc phòng bị hạn chế, quy trình thẩm định – triển khai công nghệ cho mục đích quốc phòng bị đình trệ, và hợp đồng trị giá tối đa 200 triệu USD (khoảng 2.951,2 tỷ đồng) đang bàn với Lầu Năm Góc đứng trước nguy cơ đổ vỡ. *Bình luận*: Với quy mô lên tới hàng trăm triệu USD, đây không chỉ là một hợp đồng thương mại, mà còn là “bước đệm chiến lược” để Anthropic bám sâu vào hệ sinh thái quốc phòng Mỹ.
Anthropic khẳng định, nguyên nhân cốt lõi dẫn tới động thái này nằm ở mâu thuẫn về phạm vi sử dụng công nghệ. Công ty nhất quán tuyên bố sẽ không cho phép hệ thống AI của mình bị dùng cho “*từ*giám sát hàng loạt người Mỹ*từ*” hay “*từ*vũ khí sát thương tự động hoàn toàn*từ*”. Sau khi các cuộc thương lượng với chính phủ về việc duy trì các *từ*hàng rào an toàn (guardrails)*từ* này thất bại, phía Washington được cho là đã chính thức áp dụng phân loại “rủi ro chuỗi cung ứng” đối với Anthropic.
Trong đơn kiện, Anthropic lập luận phân loại này không dựa trên một quy trình pháp lý minh bạch và đang hoạt động như một công cụ vô hiệu hóa cơ hội kinh doanh: doanh nghiệp bị chặn khỏi các chương trình mua sắm, đánh giá và đấu thầu thông thường mà không được giải thích rõ ràng hoặc có cơ chế kháng nghị hiệu quả. Công ty tuyên bố sẽ vẫn duy trì đối thoại với chính phủ, nhưng “cần tới phán quyết tư pháp để bảo vệ khách hàng, đối tác và hoạt động kinh doanh”.
Trao đổi với CNN, người phát ngôn Anthropic nhấn mạnh việc yêu cầu tòa án xem xét “không có nghĩa chúng tôi rút lại cam kết lâu dài là dùng AI để bảo vệ an ninh quốc gia”. Tuy nhiên, họ nhấn mạnh đây là bước đi bắt buộc để bảo vệ “*từ*mô hình kinh doanh và hệ sinh thái đối tác*từ*” trước một quyết định hành chính mà họ cho là tù mù.
Ở chiều ngược lại, Bộ Quốc phòng Mỹ giữ quan điểm AI của Anthropic phải có khả năng phục vụ “*từ*tất cả mục đích hợp pháp (all lawful purposes)*từ*” trong khuôn khổ luật pháp Mỹ. Cốt lõi tranh chấp nằm ở chỗ: chính phủ muốn quyền chủ động rộng hơn trong việc áp dụng công nghệ AI cho mọi kịch bản quốc phòng, trong khi Anthropic áp đặt một bộ nguyên tắc sử dụng nhằm loại trừ một số ứng dụng “nhạy cảm cao”. *Bình luận*: Đây là điểm va chạm trực diện giữa nhu cầu “tối đa hóa tính hiệu quả” của quốc phòng và xu hướng “đặt giới hạn đạo đức” của các công ty AI lớn.
Dù căng thẳng với Washington leo thang, hoạt động kinh doanh hướng tới người dùng cuối của Anthropic lại cho thấy mức độ “chịu đựng rủi ro” khá ấn tượng. Ngay sau khi thông tin về khả năng chấm dứt hợp đồng với Lầu Năm Góc được truyền thông Mỹ đăng tải, ứng dụng chatbot Claude của Anthropic lần đầu tiên vượt qua ChatGPT của OpenAI trên bảng xếp hạng tải về tại Apple App Store. Cùng thời điểm đầu tháng 3, Anthropic cho biết mỗi ngày có hơn 1 triệu người dùng mới đăng ký sử dụng Claude – một con số phản ánh *từ*cầu tiêu dùng với AI tạo sinh*từ* vẫn tăng bất chấp các tranh chấp chính sách.
Đáng chú ý, các tập đoàn hạ tầng đám mây lớn vẫn tiếp tục hậu thuẫn Anthropic, nhưng khoanh vùng ở “phi quốc phòng”. Google xác nhận sẽ tiếp tục cung cấp công nghệ AI của Anthropic cho khách hàng trên nền tảng Google Cloud, ngoại trừ các dự án thuộc lĩnh vực quốc phòng. Microsoft(MSFT) cũng đưa ra quan điểm tương tự, và Amazon(AMZN) khẳng định vẫn duy trì việc tích hợp dịch vụ Anthropic trong các mảng không liên quan tới nhiệm vụ quân sự. *Bình luận*: Lập trường này cho thấy giới Big Tech đang tìm cách cân bằng giữa việc tôn trọng rủi ro chính trị – pháp lý trong quốc phòng và không bỏ lỡ giá trị thương mại khổng lồ từ các ứng dụng dân sự của AI.
Vụ kiện hiện nay được xem như phép thử đầu tiên về mức độ mà chính phủ Mỹ có thể can thiệp vào “*từ*phạm vi sử dụng*từ*” của các mô hình AI do tư nhân phát triển, cũng như ranh giới mà doanh nghiệp có thể dựng lên dưới danh nghĩa “*từ*chuẩn mực đạo đức và an toàn*từ*”. Nếu các nhãn như “*từ*nguy cơ rủi ro chuỗi cung ứng*từ*” trở thành công cụ loại bỏ doanh nghiệp khỏi thị trường mua sắm quốc phòng mà thiếu cơ chế minh bạch, điều đó có thể định hình lại toàn bộ cấu trúc hợp tác giữa nhà nước và khu vực tư nhân trong ngành AI, ảnh hưởng trực tiếp tới *từ*tính liên tục hoạt động và chiến lược đối tác*từ* của hàng loạt công ty.
*Bình luận*: Diễn biến tiếp theo của vụ Anthropic – Bộ Quốc phòng sẽ không chỉ quyết định tương lai một hợp đồng 200 triệu USD, mà còn đặt ra tiền lệ pháp lý cho cách Mỹ quản lý các nhà cung cấp AI “khó hợp tác” trong những lĩnh vực nhạy cảm. Với bối cảnh các nước lớn đua nhau quân sự hóa AI, bất kỳ phán quyết nào cũng có thể trở thành “mẫu tham chiếu” cho các khung chính sách mới về *từ*rủi ro chuỗi cung ứng và kiểm soát công nghệ chiến lược*từ* trên phạm vi toàn cầu.
Bình luận 0