Cuộc tranh chấp giữa quân đội Mỹ và Anthropic có ý nghĩa gì đối với AI được sử dụng trong chiến tranh? | AI (trí tuệ nhân tạo) | The Guardian

Cuộc tranh chấp giữa quân đội Mỹ và Anthropic có ý nghĩa gì đối với AI được sử dụng trong chiến tranh?

Pete Hegseth, Bộ trưởng Quốc phòng Hoa Kỳ, và Dario Amodei, Giám đốc Điều hành của Anthropic.

Cuộc tranh chấp đang diễn ra giữa Anthropic và Bộ Quốc phòng Mỹ về các hạn chế an toàn mà công ty có thể áp đặt lên các mô hình trí tuệ nhân tạo của mình đã thu hút sự chú ý trong ngành công nghệ, đồng thời trở thành thước đo cho cách AI có thể được dùng trong chiến tranh và quyền lực của chính phủ trong việc ép buộc các công ty đáp ứng yêu cầu của mình.

Các cuộc đàm phán xoay quanh việc Anthropic từ chối cho phép chính phủ liên bang sử dụng Claude AI cho việc giám sát đại chúng nội địa hoặc các hệ thống vũ khí tự động, nhưng tranh chấp cũng phản ánh tính hỗn độn khi các sản phẩm công nghệ được tích hợp vào xung đột. Bộ Quốc phòng tuần này đã công bố Anthropic là rủi ro chuỗi cung ứng vì công ty từ chối đồng ý với các điều khoản của chính phủ, trong khi Anthropic đã hứa sẽ kháng cáo quyết định này tại tòa.

The Guardian đã phỏng vấn cô Sarah Kreps, giáo sư và giám đốc Viện Chính sách Công nghệ tại Đại học Cornell, người từng phục vụ trong Không quân Hoa Kỳ, để tìm hiểu cách cuộc tranh chấp diễn ra.

Bạn đã làm việc một thời gian với các vấn đề liên quan đến “công nghệ dùng kép”. Điều gì xảy ra khi một công nghệ tiêu dùng cũng được sử dụng cho mục đích bí mật hoặc quân sự?

Tôi đã suy nghĩ rất nhiều về vấn đề này vì tôi từng là thành viên của quân đội, làm việc trong bộ phận phát triển và mua sắm công nghệ mới. Chúng tôi luôn bị chỉ trích vì tiến độ chậm, và khi quan sát những gì đang diễn ra, tôi nhận ra lý do tại sao.

Những gì bạn phát triển cho các bối cảnh bí mật và quân sự hoàn toàn khác với những gì Anthropic đã phát triển cho Claude. Thách thức đối với quân đội là những công nghệ này quá hữu ích để chờ đợi phiên bản “đánh chuẩn quân sự”. Họ cần hành động nhanh vì giá trị của các công cụ này, nhưng không có gì ngạc nhiên khi họ gặp phải sự khác biệt văn hoá giữa một nền tảng AI và quân đội, đặc biệt là khi nền tảng đó cố gắng xây dựng hình ảnh an toàn.

Anthropic đã tự nhận mình là công ty “đặt an toàn lên hàng đầu”, nhưng sau đó lại ký hợp đồng với quân đội. Điều này có mâu thuẫn không?

Thực sự có một mức độ bất ngờ khi Anthropic lại ngạc nhiên trước kết quả cuối cùng. Khoảng một hoặc hai năm trước, Anthropic quyết định rằng ChatGPT sẽ hướng tới người dùng cá nhân, trong khi Anthropic sẽ tập trung vào thị trường doanh nghiệp. Điều này có nghĩa là họ muốn bán cho các tổ chức thay vì bán các gói cá nhân.

Tuy nhiên, họ đồng thời đang hợp tác với Bộ Quốc phòng và Palantir – công ty được cho là sử dụng AI cho những mục đích gây tranh cãi. Vì vậy, quyết định này mâu thuẫn với thương hiệu mà Anthropic đang cố gắng xây dựng.

Có vẻ như Anthropic chấp nhận một phạm vi sử dụng rộng rãi cho công nghệ của mình, nhưng lại vẽ ra một “đường đỏ” – không cho phép công nghệ được dùng cho giám sát đại chúng nội địa và vũ khí tự động gây chết người.

Các yếu tố chính trị và quan hệ đã ảnh hưởng như thế nào?

Có một vài khả năng. Thứ nhất, một phần có thể liên quan đến mối quan hệ giữa những người trong Anthropic và chính quyền Trump, dẫn tới một vòng xoáy giảm niềm tin.

Thứ hai, các tình huống như ở Venezuela và các hoạt động của ICE đã làm dấy lên câu hỏi về việc sử dụng công nghệ này một cách “hợp pháp”. Định nghĩa hợp pháp của một người có thể rất khác so với người khác.

Bộ Quốc phòng đưa ra lập luận gì?

Bộ Quốc phòng cho rằng nếu có vấn đề quốc phòng, họ không nên phải gọi Dario Amodei để được phê duyệt. Điều này đặt ra câu hỏi thực sự về vai trò của các công ty công nghệ tư nhân trong quyết định an ninh quốc gia.

Như trong vụ iPhone của kẻ giết người tại San Bernardino năm 2016, FBI yêu cầu Apple tạo lối vào để truy cập dữ liệu, nhưng Apple từ chối vì lý do quyền riêng tư, buộc FBI phải tìm một bên thứ ba độc lập. Khác với trường hợp này, một khi AI của Anthropic được giao cho quân đội, quân đội không còn cần sự cho phép của Anthropic nữa; họ có thể sử dụng phần mềm theo cách mà ban đầu không được quy định, biện minh bằng lý do an ninh quốc gia.

Do đó, Anthropic mất hết quyền đòn bẩy vì công nghệ đã ở trong tay các chuyên gia an ninh quốc gia, và công ty không thể biết được công nghệ đang được dùng cho mục đích gì.

Những câu hỏi lâu dài về AI trong quân đội đang tới đỉnh điểm

Tuần này tôi nhận thấy nhiều câu hỏi lâu đời về việc sử dụng AI trong quân đội đang được đưa lên bề mặt. Khi bạn theo dõi vấn đề này trong thời gian dài, việc quan sát cuộc tranh chấp hiện tại khiến tôi suy nghĩ về tương lai của AI trong chiến tranh.

Nguồn: https://www.theguardian.com/technology/2026/mar/07/anthropic-claude-ai-pentagon-us-military

0 comments Blogger 0 Facebook

Đăng nhận xét

 
Agent.ai.vn © 2024 - Nắm bắt tương lai
Top