Back to top
  • 공유 Chia sẻ
  • 인쇄 In
  • 글자크기 Cỡ chữ
URL đã được sao chép

Anthropic kiện chính phủ Mỹ vì âm thầm ‘cấm cửa’ Claude trong đấu thầu AI liên bang

Anthropic kiện chính phủ Mỹ vì âm thầm ‘cấm cửa’ Claude trong đấu thầu AI liên bang / Tokenpost

Mỹ đang chứng kiến cuộc đối đầu trực diện giữa hai thế lực lớn trên thị trường *từ AI tạo sinh*, khi chính sách *từ chính phủ liên bang* bắt đầu định hình lại cục diện. Công ty *từ Anthropic* cho biết mô hình *từ Claude* của họ đã bị đưa vào dạng “danh sách đen” trong hoạt động *từ đấu thầu, mua sắm công nghệ AI* của liên bang, và đã khởi kiện chính phủ Mỹ ra tòa vì cho rằng mình bị loại bỏ mà không qua quy trình pháp lý đúng chuẩn.

Theo Axios đưa tin ngày 11 (giờ địa phương), vụ kiện này đặt ra câu hỏi lớn: *từ chính phủ Mỹ* có thể dựa vào lý do an ninh hay chuỗi cung ứng để loại trừ một nhà cung cấp *từ AI* khỏi thị trường công rộng đến đâu, và cần tuân thủ những bước thủ tục nào để việc hạn chế không bị coi là tùy tiện.

Theo Axios đưa tin ngày 11 (giờ địa phương), *từ Anthropic* đã nộp đơn kiện lên tòa liên bang khu vực Bắc California ngày 10 (giờ địa phương), liệt kê hàng loạt cơ quan liên bang làm bị đơn, gồm Bộ Tài chính, Bộ Thương mại, Bộ Ngoại giao, Bộ Y tế và Dịch vụ Nhân sinh, Bộ Cựu chiến binh và Cơ quan Quản lý Dịch vụ Tổng hợp(GSA). Công ty cáo buộc các cơ quan này đã “loại *từ Claude* khỏi các hợp đồng liên bang mà không qua bất kỳ thủ tục chính thức nào”.

Trong đơn kiện, *từ Anthropic* lập luận rằng khi một nhà cung cấp bị cấm tham gia hoạt động *từ đấu thầu liên bang*, luật pháp và quy định nội bộ thường yêu cầu phải có “quyết định chính thức”, kèm theo quá trình tham vấn giữa các bộ ngành, tài liệu hóa bằng chứng và xem xét các giải pháp thay thế. Tuy nhiên, theo phía công ty, các cơ quan liên bang đã không tiến hành những bước này. Ngay cả những biện pháp “ít hạn chế hơn” như phê duyệt có điều kiện, rà soát an ninh sâu hơn hay giới hạn phạm vi sử dụng *từ AI* cũng không được đánh giá trước khi đi tới kết quả gần như là “cấm cửa”.

*bình luận* Việc *từ Anthropic* nhấn mạnh yếu tố “quy trình và tài liệu hóa quyết định” không chỉ nhằm vào kết quả cuối cùng (bị cấm tham gia), mà đánh trực diện vào tính hợp pháp và mức độ minh bạch của quy trình ra quyết định trong hệ thống mua sắm công liên bang. Đây là điểm then chốt nếu vụ kiện đi xa hơn các tranh chấp thương mại thông thường.

Theo mô tả của *từ Anthropic*, trong nội bộ các cơ quan liên bang, những lo ngại về *từ an ninh quốc gia* và rủi ro *từ chuỗi cung ứng(supply chain)* đã được sử dụng như căn cứ để hạn chế sử dụng *từ Claude*. Trên thực tế, các hướng dẫn nội bộ này được truyền thông qua các kênh mua sắm tập trung của *từ chính phủ Mỹ*, khiến nhiều cơ quan cùng lúc siết chặt hoặc dừng hoàn toàn việc sử dụng sản phẩm của hãng.

Về mặt hình thức, không hề có một sắc lệnh công khai hoặc một quyết định đơn lẻ từ một cơ quan trung tâm tuyên bố “cấm Anthropic”. Tuy vậy, theo đơn kiện, khi các hướng dẫn mang tính thận trọng về an ninh và *từ chuỗi cung ứng* được áp dụng đồng thời trên diện rộng, kết quả thực tế lại là một “lệnh cấm trên toàn hệ thống”, khiến *từ Anthropic* gần như bị chặn khỏi hầu hết cơ hội hợp đồng liên bang.

*bình luận* Đây là điểm nhạy cảm: nếu các giới hạn về *từ an ninh quốc gia* chỉ tồn tại trong dạng “hướng dẫn nội bộ” và lan tỏa qua mạng lưới mua sắm tập trung, tòa án sẽ phải cân nhắc liệu có thể coi đó là một “quyết định hành chính ngầm định” đủ để bị khiếu kiện hay không. Nếu câu trả lời là có, các cơ quan liên bang có thể sẽ phải thay đổi đáng kể cách ban hành và ghi nhận các chỉ đạo liên quan đến công nghệ *từ AI*.

Vụ việc bùng lên trong bối cảnh *từ chính phủ Mỹ* đang triển khai chương trình áp dụng *từ AI tạo sinh* được đánh giá là lớn nhất từ trước tới nay trong khu vực công. Ở nhiều cơ quan, *từ ChatGPT* của OpenAI đang dần trở thành công cụ tiêu chuẩn cho các tác vụ như phân tích dữ liệu, soạn thảo văn bản, hỗ trợ ra quyết định nội bộ, tự động hóa quy trình hành chính và cả hỗ trợ *từ an ninh mạng*.

Với đặc thù hợp đồng liên bang thường có giá trị lớn, kéo dài nhiều năm, việc một giải pháp *từ AI* trở thành “chuẩn mặc định” ngay từ giai đoạn đầu có thể tạo ra hiệu ứng khóa chặt (lock-in): sau khi hạ tầng, quy trình và đào tạo nhân sự đã gắn chặt với một nhà cung cấp, việc chuyển sang đối thủ là vô cùng khó khăn. Vì vậy, với các công ty như *từ Anthropic*, bị loại khỏi vòng *từ đấu thầu* ở giai đoạn định hình thị trường không chỉ là mất doanh thu, mà còn đánh thẳng vào “tài sản mềm” như uy tín trong khu vực công và hồ sơ tham chiếu cho các hợp đồng sau.

*bình luận* Một khi hệ sinh thái *từ AI tạo sinh* trong khu vực công đã nghiêng hẳn về một vài nhà cung cấp lớn như OpenAI, các doanh nghiệp còn lại – kể cả đã có sản phẩm được đánh giá cao về chất lượng như *từ Claude* – sẽ phải mất nhiều năm và chi phí khổng lồ để giành lại chỗ đứng. Đó là lý do *từ Anthropic* mô tả đây không chỉ là “vấn đề cạnh tranh” mà gần như là “nguy cơ sống còn”.

Trong đơn kiện, *từ Anthropic* yêu cầu tòa án đưa ra phán quyết tuyên bố rõ ràng rằng các biện pháp hạn chế, loại trừ sản phẩm của họ khỏi các hợp đồng *từ liên bang Mỹ* là trái luật, đồng thời ra lệnh ngăn các cơ quan liên bang tiếp tục áp dụng hoặc thực thi những chỉ dẫn mang tính “cấm cửa”. Nếu tòa án chấp nhận lập luận của *từ Anthropic*, cánh cửa vào thị trường *từ đấu thầu AI* của *từ chính phủ Mỹ* sẽ mở trở lại cho công ty, đồng thời tạo ra một án lệ về “giới hạn thủ tục” khi chính phủ muốn hạn chế một nhà cung cấp *từ AI* với lý do *từ an ninh quốc gia* hay *từ chuỗi cung ứng*.

Ở chiều ngược lại, Nhà Trắng đến nay vẫn chưa đưa ra bình luận chính thức về vụ kiện. Tuy nhiên, Axios dẫn các nguồn tin cho biết *từ Nhà Trắng* đang chuẩn bị một sắc lệnh hành pháp yêu cầu “gỡ bỏ hoàn toàn” giải pháp *từ AI* của *từ Anthropic* khỏi hoạt động vận hành của các cơ quan liên bang. Nếu thông tin này là chính xác, tranh chấp giữa *từ Anthropic* và *từ chính phủ Mỹ* có thể sẽ không dừng lại ở cấp độ hợp đồng hay quy trình mua sắm, mà leo thang thành một cuộc đối đầu chính sách ở cấp hành pháp.

*bình luận* Xung đột giữa tòa án và hành pháp trong lĩnh vực *từ AI tạo sinh* – đặc biệt quanh các tiêu chí *từ an ninh quốc gia* và bảo mật chuỗi cung ứng – có thể trở thành nhân tố định hình lại toàn bộ bản đồ thị trường *từ AI* trong khu vực công của Mỹ. Nếu Nhà Trắng thực sự ban hành sắc lệnh “thanh lọc” *từ Anthropic*, tòa án sẽ đứng trước bài toán khó: vừa bảo vệ thẩm quyền *từ an ninh* của hành pháp, vừa tránh tạo tiền lệ cho phép “cấm cửa” nhà cung cấp *từ AI* mà không qua quy trình minh bạch và có thể kiểm soát tư pháp.

Kết cục vụ kiện giữa *từ Anthropic* và *từ chính phủ Mỹ* vì thế được giới phân tích xem như một phép thử quan trọng cho tương lai của thị trường *từ AI tạo sinh* trong khu vực công: liệu luật chơi sẽ ưu tiên tuyệt đối yếu tố *từ an ninh quốc gia* và quyền tự do lựa chọn đối tác của chính phủ, hay buộc các cơ quan phải tuân thủ chặt chẽ hơn các chuẩn mực thủ tục, mở ra cơ hội cạnh tranh công bằng hơn cho những nhà cung cấp *từ AI* mới, bao gồm *từ Claude* của *từ Anthropic* trong những năm tới.

<Bản quyền ⓒ TokenPost, nghiêm cấm sao chép và phân phối trái phép>

Phổ biến nhất

Các bài viết liên quan khác

Bình luận 0

Mẹo bình luận

Bài viết tuyệt vời. Mong có bài tiếp theo. Phân tích xuất sắc.

0/1000

Mẹo bình luận

Bài viết tuyệt vời. Mong có bài tiếp theo. Phân tích xuất sắc.
1