Vấn đề lớn với thương hiệu 'An toàn AI' của Anthropic - Tạp chí The American Conservative

Theo The American Conservative
Chính trị

Vấn đề lớn với thương hiệu 'An toàn AI' của Anthropic

Cuộc tranh cãi hiện tại của công ty với Lầu Năm Góc làm lu mờ việc sử dụng mô hình chủ lực của nó trong quân sự.

Công ty AI có trụ sở tại San Francisco, Anthropic, đã thu hút sự chú ý toàn quốc sau một tranh cãi công khai nổi bật với Lầu Năm Góc về các tiêu chuẩn an toàn trí tuệ nhân tạo và khả năng sử dụng công nghệ của mình cho việc giám sát hàng loạt trong nước. Hành động phản kháng lại các yêu cầu từ chính quyền Trump—mà tháng trước đã dẫn đến lệnh cấm các cơ quan liên bang ký hợp đồng với công ty, hiện là cơ sở cho vụ kiện của Anthropic chống lại chính quyền—đã khiến giới tinh hoa Thung lũng Silicon đứng về phía Anthropic và CEO của công ty, Dario Amodei.

Sự kiện này đã tập hợp Thung lũng Silicon ủng hộ công ty theo cách thức gợi nhớ đến thời kỳ tự do tiền Trump trong giới công nghệ. “Giờ đây, điều bắt đầu như tiếng thì thầm ủng hộ Anthropic trong ngành công nghệ đã vang thành tiếng hò hét,” tờ New York Times đưa tin.

Nhà báo độc lập Jack Poulson nói với The American Conservative rằng ông nghi ngờ việc giành được sự ủng hộ này có thể chính là mục tiêu của Anthropic—rằng cuộc xung đột với chính quyền Trump có thể ít mang tính nguyên tắc về quyền tự do dân sự hơn là một chiến lược tiếp thị được tính toán kỹ. Chiến lược đó được thiết kế để thu hút những người tự do và cấp tiến ở Thung lũng Silicon, những người ghét Trump, nghi ngờ cách chính phủ sử dụng công nghệ của họ, nhưng cuối cùng vẫn sẵn sàng cung cấp cho chính phủ Mỹ và các chính phủ khác những công cụ mạnh nhất để kiểm duyệt, giám sát và thậm chí giết chết kẻ thù của họ với mức giá phù hợp.

Poulson, người từng từ chức vị trí nhà khoa học cấp cao tại Google vào năm 2017 để phản đối dự án công cụ tìm kiếm bị kiểm duyệt của công ty này tại Trung Quốc, chỉ ra rằng điểm khác biệt thương hiệu hoàn toàn của Anthropic so với OpenAI nằm ở các tiêu chuẩn đạo đức được cho là của công ty. Việc Anthropic hiện đang tham gia vào một tranh cãi công khai—mà theo báo cáo đã giúp chatbot Claude của nó vượt qua ChatGPT về lượt tải ứng dụng trong tháng Ba—là “phù hợp với thương hiệu”, Poulson nói. Có thể đơn giản đây chỉ là cách “để Anthropic tự định vị mình là #phản kháng”, ông lập luận, “để nhân viên của họ vẫn cảm thấy được chào đón trong các cộng đồng tự do”.

Jack Clark, đồng sáng lập Anthropic, bản thân cũng có kinh nghiệm với những chiến lược tiếp thị được tính toán này từ thời ông là giám đốc chính sách của OpenAI, nơi ông giúp công ty này lợi dụng danh nghĩa phi lợi nhuận để thu lợi tài chính.

Poulson chỉ ra một loạt tiết lộ ít được thảo luận, làm dấy lên nghi vấn về hình ảnh của Anthropic như một công ty được dẫn dắt độc đáo bởi các mối quan tâm đạo đức về giám sát và lạm dụng trí tuệ nhân tạo. Một tài liệu họp bị rò rỉ mà Poulson phát hiện vào năm 2023 cho thấy đại diện Anthropic tham gia vào một hợp tác tình báo kín, có sự hiện diện của các quan chức cấp cao CIA—bao gồm cả giám đốc công nghệ và giám đốc trí tuệ nhân tạo của cơ quan này—cùng với các quan chức chính phủ Úc.

Phiên làm việc này, được tổ chức thông qua các diễn đàn do Dự án Nghiên cứu Cạnh tranh Đặc biệt của cựu CEO Google Eric Schmidt và Viện Chính sách Chiến lược Úc tổ chức, là một phần trong nỗ lực rộng lớn hơn nhằm khám phá cách tích hợp các mô hình ngôn ngữ lớn vào hệ thống an ninh phương Tây. Đồng thời, Anthropic đã mở rộng hoạt động kinh doanh với chính phủ, thuê Steve Sloss—nhân viên lâu năm của Palantir—để dẫn dắt bán hàng cho chính phủ Mỹ và tiếp thị công nghệ của mình tới nhiều cơ quan tình báo, bao gồm Cơ quan Tình báo Địa không gian Quốc gia.

Những tiết lộ này đặt ra câu hỏi lớn hơn về mối quan hệ của Anthropic với bộ máy an ninh quốc gia sâu rộng. Poulson lưu ý rằng công ty đã hợp tác với Palantir, nền tảng của công ty này được xây dựng dựa trên việc tích hợp dữ liệu quy mô lớn từ khu vực thương mại và chính phủ, bất chấp những cảnh báo công khai của Anthropic về rủi ro của các hệ thống như vậy. Ông cũng chỉ đến Cơ quan Nguồn mở của CIA, vốn đã lâu nay thảo luận về việc sử dụng các mô hình ngôn ngữ lớn để xử lý lượng dữ liệu công khai khổng lồ. Cuộc họp năm 2023 giữa Anthropic và các quan chức CIA đặt ra nghi vấn về mức độ nhận thức hoặc hợp tác của Anthropic với những nỗ lực này.

Dù hiện tại công ty đang phản kháng công khai một số yêu cầu của Lầu Năm Góc, mô hình AI chủ lực của Anthropic, Claude, đã được tích hợp vào cơ sở hạ tầng định vị mục tiêu của quân đội Mỹ, nơi nó hoạt động như một phần của hệ thống Maven của Palantir. Mô hình này hiện được các nhà hoạch định quân sự sử dụng để phân tích các nguồn tin tình báo và tạo danh sách ưu tiên mục tiêu cho các đợt không kích của Mỹ tại Iran, và có khả năng đã tham gia vào vụ không kích một trường tiểu học khiến hơn 160 người thiệt mạng, phần lớn là trẻ em gái. Trước đó, AI của Anthropic được cho là đã đóng vai trò trong chiến dịch bắt cóc nhà lãnh đạo Venezuela Nicolas Maduro, khiến hơn 80 người thiệt mạng.

Mặc dù có thể quảng bá mình là phản đối vũ khí hoàn toàn tự động, Anthropic dường như có rất ít giới hạn về việc sản phẩm của mình được dùng để giết người không phải người Mỹ như thế nào.

Trong khi Anthropic hiện đang được ca ngợi rộng rãi như một nhà vô địch cho quyền tự do dân sự và đạo đức AI, mối quan hệ thân thiết của công ty với bộ máy an ninh quốc gia Mỹ—và việc công nghệ của họ ngày càng được sử dụng trong các hoạt động quân sự—nên khiến người ta nghi ngờ nhiều hơn về hình ảnh thương hiệu của công ty so với những gì họ đã nhận được cho đến nay.

0 comments Blogger 0 Facebook

Đăng nhận xét

 
Agent.ai.vn © 2024 - Nắm bắt tương lai
Top