Anthropic Đầu Tư Phát Triển Chuẩn Đo AI Mới

Mục lục:

  1. Anthropic Chạy Chương Trình Hỗ Trợ Phát Triển Chuẩn Đo AI Mới
  2. Thách Thức Hiện Tại Của Chuẩn Đo AI
  3. Mục Tiêu Của Chương Trình Anthropic
  4. Các Loại Chuẩn Đo Mới
  5. Phương Pháp Thực Hiện
  6. Bàn Luận Về Tính Minh Bạch Và Uy Tín
  7. Kết Luận

1. Anthropic Chạy Chương Trình Hỗ Trợ Phát Triển Chuẩn Đo AI Mới

Công ty nghiên cứu AI Anthropic đã công bố một chương trình đầu tư nhằm phát triển các chuẩn đo mới có khả năng đánh giá hiệu suất và tác động của các mô hình AI, bao gồm cả các mô hình tạo sinh như Claude của chính họ. Chương trình này sẽ cung cấp tài trợ cho các tổ chức bên thứ ba có thể, theo lời Anthropic, đo lường hiệu quả các khả năng tiên tiến trong mô hình AI. Các tổ chức quan tâm có thể nộp đơn xin tài trợ và được đánh giá thường xuyên.

2. Thách Thức Hiện Tại Của Chuẩn Đo AI

Anthropic thừa nhận rằng hiện nay, việc phát triển các đánh giá chất lượng cao và liên quan đến an toàn vẫn là một thách thức lớn, và nhu cầu đang vượt xa nguồn cung. Bài báo nêu bật thực trạng chuẩn đo AI hiện nay, cho thấy phần lớn các chuẩn đo thông dụng không phản ánh chính xác cách người dùng trung bình sử dụng các hệ thống đang được kiểm tra. Ngoài ra, còn có những nghi ngờ về việc liệu một số chuẩn đo, đặc biệt là những chuẩn đo được phát hành trước khi AI tạo sinh hiện đại ra đời, có thực sự đo lường những gì chúng tuyên bố hay không.

3. Mục Tiêu Của Chương Trình Anthropic

Anthropic đặt mục tiêu nâng cao toàn bộ lĩnh vực an toàn AI bằng cách cung cấp các công cụ hữu ích cho toàn bộ hệ sinh thái.

4. Các Loại Chuẩn Đo Mới

Chương trình này tập trung vào việc tạo ra các chuẩn đo khó khăn với trọng tâm vào an ninh AI và tác động xã hội thông qua các công cụ, cơ sở hạ tầng và phương pháp mới. Anthropic kêu gọi các bài kiểm tra đánh giá khả năng của mô hình trong việc thực hiện các nhiệm vụ như tấn công mạng, nâng cấp vũ khí hủy diệt hàng loạt (ví dụ: vũ khí hạt nhân) và thao túng hoặc lừa dối người khác (ví dụ: thông qua deepfake hoặc thông tin sai lệch).

5. Phương Pháp Thực Hiện

Anthropic dự kiến ​​sẽ xây dựng các nền tảng mới cho phép các chuyên gia trong lĩnh vực có thể tự phát triển các đánh giá của riêng mình và thử nghiệm quy mô lớn các mô hình với sự tham gia của hàng nghìn người dùng. Anthropic cũng đã tuyển dụng một điều phối viên toàn thời gian cho chương trình và có thể mua hoặc mở rộng các dự án mà họ tin rằng có tiềm năng mở rộng.

6. Bàn Luận Về Tính Minh Bạch Và Uy Tín

Anthropic công khai mục tiêu của họ là muốn các đánh giá được tài trợ phù hợp với các phân loại an toàn AI mà họ đã phát triển. Tuy nhiên, điều này cũng có thể khiến các ứng viên phải chấp nhận các định nghĩa về AI an toàn hoặc nguy hiểm mà họ không đồng ý.

7. Kết Luận

Nỗ lực của Anthropic trong việc hỗ trợ các chuẩn đo AI mới là đáng khen ngợi. Tuy nhiên, vẫn còn nhiều câu hỏi về việc liệu những nỗ lực này có đủ nguồn lực tài chính và nhân lực hay không. Ngoài ra, do tham vọng thương mại của Anthropic trong cuộc đua AI, điều này cũng đặt ra những nghi ngờ về tính minh bạch và trung lập của chương trình.

Logo Anthropic

0 comments Blogger 0 Facebook

Đăng nhận xét

 
Agent.ai.vn © 2024 - Nắm bắt tương lai
Top