
OpenAI và nhân viên Google DeepMind đã nộp một bản tuyên bố vào thứ Hai để ủng hộ vụ kiện của Anthropic đối với Bộ Quốc phòng Hoa Kỳ (DOD), sau khi cơ quan liên bang này đánh dấu công ty AI là "rủi ro chuỗi cung ứng", theo hồ sơ tòa án.
Government & Policy
“Việc chính phủ xếp hạng Anthropic là rủi ro chuỗi cung ứng là một hành động lạm dụng quyền lực không đúng đắn và tùy tiện, gây ra những hệ quả nghiêm trọng cho ngành công nghiệp của chúng ta,” bản ngắn cáo, trong đó có chữ ký của nhà khoa học trưởng Google DeepMind Jeff Dean, cho biết.
Vào cuối tuần trước, Pentagon đã xếp Anthropic vào danh sách rủi ro chuỗi cung ứng — danh sách thường dành cho các đối thủ nước ngoài — sau khi công ty AI này từ chối cho phép Bộ Quốc phòng sử dụng công nghệ của mình cho việc giám sát đại chúng hoặc tự động bắn pháo đài. DOD cho rằng họ nên được phép sử dụng AI cho bất kỳ mục đích "hợp pháp" nào mà không bị ràng buộc bởi nhà thầu tư nhân.
Bản kiến nghị amicus ủng hộ Anthropic xuất hiện trên hồ sơ tòa án chỉ vài giờ sau khi nhà sản xuất Claude (Anthropic) nộp hai vụ kiện chống lại DOD và các cơ quan liên bang khác. Wired là phương tiện truyền thông đầu tiên đưa tin này.
Trong hồ sơ tòa án, các nhân viên của Google và OpenAI lập luận rằng nếu Pentagon "không còn hài lòng với các điều khoản hợp đồng đã thỏa thuận với Anthropic," cơ quan này có thể "đơn giản hủy bỏ hợp đồng và mua dịch vụ của một công ty AI hàng đầu khác."
Thực tế, DOD đã ký một thỏa thuận với OpenAI trong vòng vài phút sau khi đánh dấu Anthropic là rủi ro chuỗi cung ứng — một động thái mà nhiều nhân viên của nhà sản xuất ChatGPT đã phản đối.
“Nếu được tiếp tục, nỗ lực trừng phạt một trong những công ty AI hàng đầu của Hoa Kỳ chắc chắn sẽ gây hậu quả cho năng lực cạnh tranh công nghiệp và khoa học của Hoa Kỳ trong lĩnh vực trí tuệ nhân tạo và hơn thế nữa,” bản ngắn cáo ghi lại. “Và nó sẽ làm lạnh đi các cuộc thảo luận cởi mở trong lĩnh vực của chúng ta về những rủi ro và lợi ích của các hệ thống AI hiện nay.”
Phản hồi của cộng đồng AI
Hồ sơ còn khẳng định rằng các giới hạn mà Anthropic đưa ra là những mối quan ngại hợp pháp và đòi hỏi các rào cản bảo vệ mạnh mẽ. Khi không có luật công khai nào điều chỉnh việc sử dụng AI, các hạn chế hợp đồng và kỹ thuật mà các nhà phát triển áp đặt lên hệ thống của mình trở thành một biện pháp bảo vệ quan trọng trước việc lạm dụng gây thảm họa.
Nhiều nhân viên ký bản tuyên bố cũng đã ký các thư mở trong vài tuần qua, kêu gọi DOD rút lại nhãn “rủi ro chuỗi cung ứng” và kêu gọi các lãnh đạo công ty của họ ủng hộ Anthropic và từ chối việc sử dụng AI một cách đơn phương.
Sự kiện và khuyến mãi liên quan
Founder Summit 2026 tại Boston: Đừng bỏ lỡ ưu đãi giảm tới $300. Đăng ký ngay.
Disrupt 2026: Tiết kiệm tới $680 cho vé tham dự. Đăng ký trước 23:59 PT hôm nay.
TechCrunch Founder Summit 2026: Tiết kiệm tới $300 hoặc 30% cho vé. Sự kiện diễn ra tại San Francisco, CA, từ 13‑15 tháng 10 năm 2026. Đăng ký trước 13 tháng 3 để nhận ưu đãi.
Về tác giả
Rebecca Bellan, phóng viên cao cấp tại TechCrunch, chuyên đưa tin về kinh doanh, chính sách và xu hướng mới nổi trong lĩnh vực trí tuệ nhân tạo. Công trình của cô đã từng xuất hiện trên Forbes, Bloomberg, The Atlantic, The Daily Beast và các tờ báo khác.
Bạn có thể liên hệ hoặc xác thực thông tin từ Rebecca qua email rebecca.bellan@techcrunch.com hoặc tin nhắn được mã hoá tại rebeccabellan.491 trên Signal.
0 comments Blogger 0 Facebook
Đăng nhận xét