Nhìn vào tuần trước, có vẻ như một thảm họa đang đổ lên Anthropic. Công ty AI này đã từ chối cho chính phủ Hoa Kỳ sử dụng sản phẩm của mình để giám sát công chúng Mỹ hoặc điều khiển vũ khí tự động mà không có sự giám sát của con người. Đáp lại, Bộ Quốc phòng đã hủy bỏ hợp đồng trị giá 200 triệu USD. Trên Truth Social, Tổng thống Trump gọi công ty là "những kẻ điên trái cánh" và ra lệnh tất cả các cơ quan liên bang ngay lập tức ngừng sử dụng sản phẩm của Anthropic. Bộ trưởng Quốc phòng Pete Hegseth còn đi xa hơn, xếp Anthropic vào danh sách "Rủi ro chuỗi cung ứng đối với an ninh quốc gia". Đối thủ lớn nhất của Anthropic, OpenAI, nhanh chóng ký một thỏa thuận riêng với Lưới quốc phòng.
Rủi ro và tiềm năng thu lợi
Quan điểm nguyên tắc của công ty vẫn tiềm ẩn những rủi ro to lớn. Tuy nhiên, một số dấu hiệu ban đầu cho thấy có thể họ sẽ được đền đáp.
Hiệu quả quảng cáo kỳ diệu
Cuộc đối đầu với Bộ Quốc phòng đã chứng tỏ hiệu quả hơn cả những chiến dịch quảng cáo tốn kém nhất thế giới – ít nhất theo một tiêu chí. Sau chiến dịch quảng cáo tại Super Bowl đầu năm, mô hình AI Claude của Anthropic đã lọt vào top 10 ứng dụng miễn phí được tải xuống nhiều nhất ở Mỹ, theo biểu đồ của Apple. Ngày sau khi Hegseth công bố việc chính phủ cắt đứt quan hệ, Claude đã chiếm vị trí số 1, vị trí này vẫn giữ nguyên tới thời điểm viết bài. Theo Giám đốc Sản phẩm của Anthropic, số lượt tải đã vượt 1 triệu mỗi ngày. Một người phát ngôn cho biết công ty "đã phá kỷ lục đăng ký mỗi ngày kể từ đầu tuần trước, trên mọi quốc gia mà Claude khả dụng".
Người dùng rời bỏ OpenAI
Người dùng không chỉ đăng ký Claude mà còn bỏ rơi OpenAI (đối tác doanh nghiệp của The Atlantic). Số lượt gỡ cài đặt ChatGPT, ứng dụng chủ lực của OpenAI, tăng 295 % vào ngày 28 /2, khi chi tiết thỏa thuận của OpenAI với Lưới quốc phòng được công bố. Các đánh giá một sao tăng gần 800 %, trong khi các đánh giá năm sao giảm một nửa.
Sự ủng hộ từ cộng đồng kỹ sư AI
Quan trọng hơn, Anthropic đã giành được sự tin tưởng và ngưỡng mộ của các kỹ sư trong ngành AI. Các thư ủng hộ công ty đang lưu hành trong số nhân viên các đối thủ. Một bức thư nhận được khoảng 850 chữ ký tính đến thứ Hai. Nhiều nhân viên đang yêu cầu công ty của họ thể hiện sự đoàn kết với Anthropic và tôn trọng cùng một đường ranh giới đạo đức; một số được cho là đã đe dọa rời đi nếu yêu cầu không được đáp ứng.
Phản ứng chính trị
Anthropic còn được khen ngợi ngoài Silicon Valley. Trước khi xảy ra tranh chấp với Bộ Quốc phòng, cựu nghị sĩ Đảng Cộng hòa Denver Riggleman – hiện lãnh đạo một công ty an ninh mạng – đang tìm kiếm đối tác AI. Khi xét các lựa chọn, quan điểm của Anthropic đã thu hẹp danh sách lại còn một công ty duy nhất. Riggleman đã chỉ đạo công ty mình hợp tác với Anthropic trong mọi dự án tương lai. "Anthropic có những yếu tố không thể thương lượng," ông nói, "và chúng tôi cũng có những yếu tố của mình."
Dựa trên kinh nghiệm thuộc ủy ban AI của Quốc hội, tập trung vào các đối thủ nước ngoài, Riggleman cho rằng quyết định của Hegseth gán Anthropic là rủi ro chuỗi cung ứng sẽ bị tòa án lật ngược. Chính phủ Hoa Kỳ chưa bao giờ áp dụng nhãn này cho một công ty Mỹ; thường chỉ dùng cho các doanh nghiệp do các thực thể nước ngoài thù địch điều hành, như Huawei. Hơn nữa, đây là lần đầu nhãn được dùng để trả đũa vì một doanh nghiệp từ chối các điều khoản hợp đồng. "Nói rằng quyết định này dựa trên nền tảng pháp lý yếu ớt là một lời khen," Riggleman cho biết.
Cựu nghị sĩ từng tin tưởng chính phủ sẽ quy định công nghệ có sức mạnh thay đổi cuộc sống người Mỹ. "Ngày nay," ông nói, "chính phủ không còn tạo ra các biện pháp bảo vệ nữa – thay vào đó, nó đang phá hủy chúng." Ông tiếp tục: "Chúng ta chưa thực sự nhận ra, với tư cách là một xã hội, ý nghĩa của việc các công ty tư nhân kiểm soát lượng thông tin khổng lồ về công dân."
Quan điểm pháp lý của Bộ Quốc phòng
Bộ Quốc phòng cho rằng hợp đồng mà nó đề nghị cho Anthropic đã có các biện pháp bảo vệ đủ, một phần vì văn bản giới hạn việc sử dụng AI cho "tất cả các mục đích hợp pháp." Anthropic lập luận rằng điều khoản này không đủ – một lệnh hành pháp mới hoặc cách diễn giải lại luật pháp có thể làm thay đổi ranh giới pháp lý hiện hành. "Chúng tôi không muốn bán một sản phẩm," CEO Dario Amodei của Anthropic nói, "có thể khiến người của chúng tôi bị giết, hoặc làm người vô tội bị giết."
So sánh với thỏa thuận của OpenAI
OpenAI khẳng định thỏa thuận sau này với Lưới quốc phòng an toàn hơn so với của Anthropic. Hợp đồng của họ dường như cấm giám sát đại trà và vũ khí tự động, nhưng vẫn giữ nguyên cụm từ "tất cả các mục đích hợp pháp," khiến lệnh cấm phụ thuộc vào việc Bộ Quốc phòng tôn trọng các chuẩn mực pháp lý. Ngay cả Sam Altman, CEO của OpenAI, cũng thừa nhận thỏa thuận "được thực hiện vội vàng" và "cách nhìn nhận không tốt." Vào thứ Hai, công ty công bố đã thêm các hạn chế liên quan đến giám sát vào hợp đồng, nhưng các nhà phê bình hoài nghi rằng những hạn chế này sẽ thực sự ràng buộc.
Nhận định cá nhân
Những sự kiện trong tuần qua gợi nhớ tôi về những ngày đầu làm phi công hải quân gần ba thập kỷ trước. Một trong những nhiệm vụ đầu tiên của tôi là ký một tài liệu cam kết không giám sát công dân Mỹ. Đến thời điểm vụ 9/11, tôi đã là chỉ huy máy bay, dẫn dắt các đội bay trinh thám chiến đấu thu thập intel quy mô lớn và cung cấp thông tin cho các quyết định nhắm mục tiêu trên chiến trường. Tôi luôn cho rằng trong chuỗi quyết định đó, một con người luôn phải đứng trong vòng phản hồi.
Tôi không thể định nghĩa "trí tuệ nhân tạo" vào thời điểm ấy, nhưng bản năng tôi đã hiểu rằng một người, không phải một cỗ máy, sẽ chịu trách nhiệm cho những lựa chọn sống còn. Đó không chỉ là một cân nhắc hành chính; đó là một ranh giới cứng nhắc mà những người mặc áo xanh được kỳ vọng phải tuân thủ.
Nguồn: https://www.theatlantic.com/ideas/2026/03/anthropic-pentagon-contract-openai/686285/
0 comments Blogger 0 Facebook
Đăng nhận xét