Back to top
  • 공유 Chia sẻ
  • 인쇄 In
  • 글자크기 Cỡ chữ
URL đã được sao chép

CEO Anthropic chỉ trích Bộ Quốc phòng Mỹ cấm dùng AI, OpenAI nhanh chóng thế chỗ trong các hợp đồng quân sự

CEO Anthropic chỉ trích Bộ Quốc phòng Mỹ cấm dùng AI, OpenAI nhanh chóng thế chỗ trong các hợp đồng quân sự / Tokenpost

Theo CBS News đưa tin ngày 1 (giờ địa phương), Tổng giám đốc điều hành Anthropic, Dario Amodei, đã công khai phản đối quyết định của Bộ Quốc phòng Mỹ và Nhà Trắng sau khi xuất hiện chỉ thị yêu cầu các nhà thầu quốc phòng dừng sử dụng sản phẩm AI của Anthropic trong các hợp đồng với quân đội. Amodei khẳng định lại lập trường phản đối việc dùng AI cho “giám sát quy mô lớn trong nước” và “vũ khí sát thương hoàn toàn tự động”, đồng thời gọi quyết định này là “mang tính trừng phạt và chưa từng có tiền lệ”.

Ở phần mở đầu cuộc phỏng vấn với CBS News ngày 1 (giờ địa phương), Amodei nhấn mạnh Anthropic từ lâu đã đặt ranh giới rõ ràng: không tham gia các dự án liên quan “giám sát dân sự diện rộng” và nền tảng “vũ khí hoàn toàn tự động có thể tự đưa ra quyết định khai hỏa mà không cần con người can thiệp”. Ông cho biết trong loạt kịch bản ứng dụng mà chính phủ Mỹ đề xuất, Anthropic chỉ phản đối hai mảng chính là **“giám sát”** và **“vũ khí hoàn toàn tự động”**, còn các ứng dụng quân sự – an ninh khác nếu đáp ứng tiêu chuẩn đạo đức và an toàn vẫn có thể được xem xét.

Amodei lý giải rằng “quyền không bị giám sát bởi chính phủ” và quyền của chỉ huy quân sự “tự mình đưa ra quyết định về chiến tranh” là những giá trị căn bản với người Mỹ. “Không được phép giao trọn vẹn các quyết định như vậy cho máy móc,” ông nói, nhấn mạnh rằng tốc độ lan rộng của **AI** đang vượt xa tiến trình xây dựng khung pháp lý và quy định kiểm soát. *bình luận* Quan điểm này phản ánh nỗi lo chung trong cộng đồng công nghệ: AI càng mạnh, rủi ro lạm dụng cho mục đích an ninh – quân sự càng lớn nếu không có hàng rào pháp lý tương xứng.

Ông kêu gọi Quốc hội Mỹ sớm đặt ra các “*guardrails*” – những **“hàng rào an toàn”** pháp lý – để ngăn chặn việc tích hợp **AI** vào các chương trình giám sát trong nước quy mô lớn. Theo Amodei, nếu thiếu cơ chế kiểm soát, các cơ quan thực thi pháp luật và an ninh nội địa có thể dễ dàng tận dụng AI để mở rộng năng lực theo dõi công dân, từ phân tích dữ liệu camera, mạng xã hội, đến nhận diện khuôn mặt trong thời gian thực, tạo ra một hệ thống **giám sát** dai dẳng và khó bị kiểm soát dân chủ.

Nguồn cơn tranh cãi bùng lên khi Bộ Quốc phòng Mỹ chính thức xếp Anthropic vào nhóm **“rủi ro chuỗi cung ứng (supply chain risk)”**. Khi bị gán nhãn này, các nhà thầu làm việc với Lầu Năm Góc buộc phải loại bỏ sản phẩm Anthropic khỏi quy trình phục vụ hợp đồng quốc phòng, từ phát triển phần mềm, phân tích dữ liệu cho tới hỗ trợ ra quyết định. Amodei mô tả cách phân loại đó là “**unprecedented**” (chưa từng có tiền lệ) và “**punitive**” (mang tính trừng phạt), ám chỉ rằng chính phủ đang dùng lập luận an ninh để trừng phạt doanh nghiệp không đi đúng “đường ray” mong muốn.

Dù vậy, Amodei cũng có phần điều chỉnh phát biểu, cho biết ông “không nhất thiết phản đối việc phát triển” vũ khí tự động trong mọi bối cảnh. Cụ thể, nếu trong tương lai các lực lượng vũ trang nước ngoài bắt đầu triển khai rộng rãi **vũ khí hoàn toàn tự động**, việc nghiên cứu và phát triển công nghệ tương đương có thể trở thành điều “khó tránh”. Tuy nhiên, ở thời điểm hiện tại, ông cho rằng độ tin cậy của **AI** chưa đủ để vận hành trong môi trường quân sự mà không có con người giám sát, nhất là khi các quyết định có thể dẫn tới thương vong. *bình luận* Đây là lập trường “vừa cứng vừa mềm”: phản đối dùng AI vào **giám sát** và sát thương tự động bây giờ, nhưng để mở khả năng xem xét lại nếu bối cảnh cạnh tranh quân sự toàn cầu buộc Mỹ phải đối phó.

Theo diễn biến mà CBS News và các nguồn tin chính phủ Mỹ ghi nhận ngày 28 (giờ địa phương), quyết định “đổi hướng” của Washington nhanh chóng mang lại cơ hội cho đối thủ lớn của Anthropic là OpenAI. Bộ trưởng chiến tranh Mỹ Pete Hegseth tuyên bố Anthropic là “rủi ro chuỗi cung ứng đối với an ninh quốc gia”, đồng thời nhấn mạnh lệnh này có hiệu lực ngay lập tức: bất kỳ nhà thầu, nhà cung cấp hay đối tác nào của quân đội Mỹ đều không được sử dụng dịch vụ thương mại của Anthropic trong hoạt động liên quan quốc phòng.

Chỉ vài giờ sau phát biểu đó, OpenAI được cho là đã ký hợp đồng với Bộ Quốc phòng Mỹ, triển khai mô hình **AI** của mình trên nhiều mạng lưới quân sự. Giám đốc điều hành OpenAI, Sam Altman, công bố thỏa thuận này như một bước tiến lớn trong ứng dụng AI cho quốc phòng, từ tự động hóa xử lý thông tin, hỗ trợ phân tích chiến trường đến nâng cao hiệu suất hậu cần. *bình luận* Về thực chất, vị trí mà Anthropic để trống trong hạ tầng công nghệ của Lầu Năm Góc đã được **OpenAI** lấp đầy gần như tức thì.

Tuy nhiên, làn sóng phản ứng trên mạng nhanh chóng dâng cao sau thông báo hợp tác. Nhiều người dùng và giới phê bình công nghệ cảnh báo nguy cơ **AI** bị tận dụng cho **giám sát quy mô lớn trong nước**, ví dụ: phân tích dữ liệu viễn thông, tự động chấm điểm “mức độ rủi ro” của công dân, hay kết hợp dữ liệu ngân hàng – mạng xã hội – camera an ninh để theo dõi mọi động thái trong đời sống số. Họ coi đây là “*red line*” – lằn ranh đỏ mà các công ty AI không nên, và thậm chí không được phép vượt qua.

Ngoài ra, nhiều ý kiến lo ngại khung **“rủi ro chuỗi cung ứng”** đang bị kéo giãn thành một công cụ chính trị – kinh tế: chỉ cần gắn nhãn rủi ro an ninh quốc gia, chính phủ có thể siết chặt hoặc loại bỏ quyền tiếp cận thị trường của doanh nghiệp công nghệ mà không cần minh bạch chi tiết. Điều này đặc biệt nhạy cảm trong bối cảnh **AI** ngày càng trở thành hạ tầng nền tảng, có vai trò tương tự internet hay điện toán đám mây trong quá khứ.

Trong khi đó, tốc độ thâm nhập của **AI** vào các lĩnh vực quốc phòng và an ninh – từ phân tích tin tình báo, mô phỏng chiến thuật, đến hỗ trợ tác chiến trên không gian mạng – đang tăng rất nhanh. Nếu không có đồng thuận xã hội rõ ràng về việc những ứng dụng mang tính rủi ro cao như **giám sát** và **vũ khí hoàn toàn tự động** được phép đi xa đến đâu, cuộc chạy đua công nghệ có thể vô tình mở rộng “khoảng trống quy định”. Khi đó, chính nỗi sợ bị tụt hậu trong cạnh tranh sẽ đẩy các nước – và cả các công ty – chấp nhận mạo hiểm hơn với **AI**, thay vì ưu tiên xây dựng hàng rào an toàn.

*bình luận* Tranh cãi quanh Anthropic, Bộ Quốc phòng Mỹ và thỏa thuận của OpenAI cho thấy ranh giới giữa “ứng dụng AI vì an ninh quốc gia” và “lạm dụng AI để giám sát và sát thương tự động” đang mờ dần. Câu hỏi đặt ra không chỉ là **AI** có thể làm được gì cho quốc phòng, mà còn là xã hội sẵn sàng chấp nhận những rủi ro nào đối với quyền riêng tư, quyền tự do và quyền được sống của con người.

<Bản quyền ⓒ TokenPost, nghiêm cấm sao chép và phân phối trái phép>

Phổ biến nhất

Các bài viết liên quan khác

Bình luận 0

Mẹo bình luận

Bài viết tuyệt vời. Mong có bài tiếp theo. Phân tích xuất sắc.

0/1000

Mẹo bình luận

Bài viết tuyệt vời. Mong có bài tiếp theo. Phân tích xuất sắc.
1