Microsoft ủng hộ công ty AI Anthropic trong vụ kiện với Lầu Năm Góc

Microsoft đã đứng về phía Anthropic trong vụ kiện pháp lý chống lại Bộ Quốc phòng Mỹ, nộp một bản kiến nghị tòa án nhằm hỗ trợ nỗ lực của công ty AI trong việc hủy bỏ một quyết định gây tranh cãi, vốn về cơ bản cấm Anthropic tham gia các hợp đồng với chính phủ.

Trong một kiến nghị bạn hữu của tòa (amicus brief) được nộp lên một tòa án liên bang tại San Francisco tuần này, Microsoft – công ty đang tích hợp các công cụ AI của Anthropic vào các hệ thống cung cấp cho quân đội Mỹ – cho rằng cần phải có lệnh cấm tạm thời để tránh gây gián đoạn nghiêm trọng cho các nhà cung cấp mà sản phẩm của họ phụ thuộc vào công nghệ của Anthropic. Google, Amazon, AppleOpenAI cũng đã ký tên vào bản kiến nghị ủng hộ Anthropic.

Trong tuyên bố gửi tới The Guardian, Microsoft cho biết: “Bộ Quốc phòng cần tiếp cận đáng tin cậy với những công nghệ tốt nhất của đất nước. Và mọi người đều muốn đảm bảo rằng AI sẽ không bị dùng vào việc giám sát hàng loạt công dân hay khởi động chiến tranh mà không có sự kiểm soát của con người. Chính phủ, toàn bộ ngành công nghệ và người dân Mỹ cần một con đường để cùng đạt được tất cả những mục tiêu này.”

Microsoft là một trong những đối tác công nghệ gắn bó sâu rộng nhất với Lầu Năm Góc, đang nắm giữ phần trong hợp đồng Khả năng Điện toán Đám mây Chiến đấu Liên quân trị giá 9 tỷ USD thời Tổng thống Joe Biden, cùng với Amazon, Google và Oracle, cũng như các thỏa thuận riêng về phần mềm và dịch vụ doanh nghiệp trị giá hàng tỷ đô la khác. Các hợp đồng của Microsoft với chính phủ trải rộng qua các lĩnh vực quốc phòng, tình báo và các cơ quan dân sự. Dưới thời chính quyền Trump, vào tháng 9, Microsoft cũng đã ký một thỏa thuận trị giá hàng tỷ đô la khác nhằm thúc đẩy dịch vụ đám mây và phát triển AI trong chính phủ liên bang.

Động thái này diễn ra sau khi Anthropic khởi kiện Bộ Quốc phòng Mỹ vào thứ Hai với hai vụ kiện – một tại tòa liên bang ở California và một tại Tòa phúc thẩm khu vực DC – nhằm thách thức quyết định của Lầu Năm Góc gán cho công ty này danh xưng “rủi ro trong chuỗi cung ứng”, một nhãn hiệu chưa từng được áp dụng trước đây đối với bất kỳ công ty Mỹ nào.

Tranh cãi bắt nguồn từ việc các cuộc đàm phán hợp đồng đổ vỡ vào tháng trước về một thỏa thuận trị giá 200 triệu USD để triển khai AI của Anthropic trên các hệ thống quân sự classified, ngay khi Mỹ chuẩn bị cho cuộc chiến tranh với Iran.

Các cuộc đàm phán đổ vỡ sau khi Anthropic kiên quyết rằng công nghệ của họ không nên được dùng cho việc giám sát hàng loạt công dân Mỹ hay để điều khiển các vũ khí tự động gây chết người, dẫn đến việc Bộ trưởng Quốc phòng Pete Hegseth gọi công ty này là một “rủi ro trong chuỗi cung ứng”. Tuần trước, Lầu Năm Góc đã chính thức thông báo quyết định này cho Anthropic, và công ty cho biết các hợp đồng chính phủ của họ đã bắt đầu bị hủy bỏ. Vào thứ Năm, Emil Michael, giám đốc công nghệ của Lầu Năm Góc, nói với CNBC rằng “không có cơ hội nào” cơ quan này sẽ đàm phán lại với Anthropic sau khi đã có quyết định này.

Trong đơn kiện, Anthropic giải thích về những giới hạn và lo ngại của chính họ đối với công nghệ của mình. “Anthropic hiện chưa có đủ tin tưởng, ví dụ, rằng Claude sẽ hoạt động đáng tin cậy hay an toàn nếu được dùng để hỗ trợ chiến tranh tự động gây chết người,” bản kiện nêu rõ. “Do đó, các giới hạn sử dụng này xuất phát từ hiểu biết đặc thù của Anthropic về những rủi ro và hạn chế của Claude.”

Công ty cũng cho rằng quyền Tu chính án thứ nhất của họ đang bị xâm phạm, lập luận rằng Lầu Năm Góc đã sử dụng danh xưng “rủi ro trong chuỗi cung ứng” – thường chỉ dành cho các công ty có liên hệ với các đối thủ nước ngoài như Trung Quốc – như một hình thức trừng phạt ý thức hệ vì lập trường công khai của Anthropic về an toàn AI.

Trong khi đó, một cuộc điều tra đang diễn ra của Lầu Năm Góc về vụ phóng tên lửa hành trình Tomahawk vào trường tiểu học Shajarah Tayyebeh, khiến ít nhất 175 người thiệt mạng theo thông báo của các quan chức Iran, được báo cáo là đã phát hiện trong giai đoạn sơ bộ rằng Washington chịu trách nhiệm cho các cái chết này. Hiện chưa rõ liệu AI có được sử dụng trong các cuộc không kích hay không, nhưng những người am hiểu cuộc điều tra cho biết vụ việc dường như xuất phát từ sai sót định vị dựa trên dữ liệu lỗi thời từ Cơ quan Tình báo Quốc phòng Mỹ (DIA), theo The New York Times.

Vào thứ Năm, các dân biểu Dân chủ tại Hạ viện đã gửi thư tới Lầu Năm Góc, bày tỏ lo ngại về “mô hình rộng hơn về thiệt hại dân sự từ các cuộc không kích của Mỹ và Israel tại Iran” và yêu cầu làm rõ vai trò của trí tuệ nhân tạo trong việc lựa chọn mục tiêu.

“Nếu trí tuệ nhân tạo được sử dụng, thì liệu nó có chịu sự kiểm tra của con người và ở giai đoạn nào?” các nghị sĩ viết. “Có sử dụng trí tuệ nhân tạo, bao gồm hệ thống Maven Smart System, để xác định trường Shajarah Tayyebeh là mục tiêu hay không? Nếu có, thì liệu một con người có xác minh độ chính xác của mục tiêu này hay không?”

Nguồn: https://www.theguardian.com/technology/2026/mar/12/microsoft-amicus-brief-anthropic-pentagon

0 comments Blogger 0 Facebook

Đăng nhận xét

 
Agent.ai.vn © 2024 - Nắm bắt tương lai
Top