Hệ thống AI mở nguồn tụt hậu so với các mô hình độc quyền và đóng cửa

Mục lục

  1. Hệ thống AI mở và đóng: Định nghĩa
  2. Phát triển mô hình AI mở và đóng: Kết quả
  3. Rủi ro khi mở nguồn các mô hình
  4. Kết luận

1. Hệ thống AI mở và đóng: Định nghĩa

Một cuộc tranh luận lớn về hệ thống AI mở so với đóng đang hình thành, trở thành một phần quan trọng trong việc quản lý những tiến bộ mới trong AI suy luận.

Khái niệm mở nguồn thường gắn liền với phần mềm, nơi mã nguồn được công khai. AI mở nguồn có định nghĩa hơi khác. Theo báo cáo của Epoch AI, mô hình AI mở nguồn là những mô hình có trọng số mô hình có thể tải xuống, trong khi "hệ thống đóng cửa không được phát hành hoặc chỉ có thể truy cập thông qua API hoặc dịch vụ được lưu trữ".

Sự tương đồng ở đây là nếu bạn có trọng số cho mô hình, bạn có thể nhìn vào hoạt động bên trong của nó, mã nguồn của nó, nếu bạn muốn.

2. Phát triển mô hình AI mở và đóng: Kết quả

Epoch AI nhận thấy rằng các mô hình mở nguồn tụt hậu so với các mô hình đóng cửa từ 5 đến 22 tháng trung bình. Llama của Meta được cho là mô hình mở nguồn hàng đầu, trong khi các mô hình đóng cửa của OpenAI rõ ràng gần với đường cong thống trị mô hình. Chúng ta có o1 thể hiện lý luận chuỗi suy nghĩ và Orion dự kiến ​​sẽ được phát hành vào đầu năm sau.

3. Rủi ro khi mở nguồn các mô hình

Các tác giả của báo cáo lưu ý rằng các nhà sản xuất các hệ thống như ChatGPT có động cơ để giữ chúng đóng cửa. Trích dẫn từ báo cáo:

“Các doanh nghiệp bán quyền truy cập vào các mô hình như ChatGPT có động cơ thương mại để giữ bí mật các mô hình. Các phòng thí nghiệm AI trong ngành đã phản ứng với những phát triển này theo nhiều cách. Một số mô hình vẫn chưa được phát hành, chẳng hạn như mô hình Chinchilla của Google DeepMind. Ngoài ra, các mô hình như GPT-4o có quyền truy cập có cấu trúc, kiểm soát cách người dùng tương tác với mô hình."

Trong một số trường hợp, đó là kịch bản cũ, nơi các công ty lớn có khả năng tốt nhất để tạo ra các hệ thống mạnh mẽ và có khả năng sẽ không biến chúng thành mã nguồn mở, ngay cả một phần.

Tuy nhiên, cũng có một thành phần nguy hiểm trong việc này về quản trị công cộng. Một số người sẽ lập luận rằng nếu bạn để những hệ thống cực kỳ mạnh mẽ này quá cởi mở, bạn sẽ có tin tặc và những kẻ xấu lợi dụng chúng để gây hại cho phần còn lại của chúng ta.

Các tác giả của báo cáo viết: “Việc công bố các mô hình, mã và tập dữ liệu cho phép đổi mới và kiểm tra bên ngoài, nhưng điều đó không thể thu hồi và có nguy cơ bị lạm dụng nếu các biện pháp bảo vệ của mô hình bị bỏ qua. Hiện đang có một cuộc tranh luận về việc liệu sự đánh đổi này có thể chấp nhận được hay có thể tránh được."

4. Kết luận

Chính điều đó là một lập luận mạnh mẽ cho các hệ thống đóng cửa được quản lý bởi các ủy ban, hội đồng quản trị hoặc tiểu ban, trái ngược với việc phát hành ra thế giới rộng lớn mà không có bất kỳ sự kiểm soát nào.

Điều này là những gì đồng sáng lập OpenAI, Ilya Sutskever được cho là đã viết về vấn đề này:

“Khi chúng ta tiến gần đến việc xây dựng AI, việc bắt đầu ít cởi mở hơn là điều có ý nghĩa. Từ “mở” trong OpenAI có nghĩa là mọi người nên được hưởng lợi từ thành quả của AI sau khi nó được xây dựng, nhưng việc không chia sẻ khoa học hoàn toàn ổn.”

Cuối cùng, báo cáo trích dẫn một “bức tranh không rõ ràng” về hướng đi của các mô hình mở nguồn. Một lần nữa, Meta được trích dẫn là một người chơi quan trọng cho các mô hình mở nguồn.

Trong một số trường hợp, như Sutskever gợi ý, việc giả định rằng các mô hình sẽ bị đóng cửa hoặc bị giới hạn theo một cách nào đó là hợp lý, vì khả năng suy luận đang phát triển nhanh chóng. Chúng ta mới chỉ nhìn thấy AI đại diện đảm nhận các nhiệm vụ phức tạp một cách đáng kể, và điều đó đang gây ra những lo ngại riêng của nó trong cộng đồng quản lý.

Có khả năng các công ty sẽ tiếp tục phát hành các mô hình hạn chế cho công chúng, đồng thời giữ lại những khía cạnh mạnh mẽ nhất của công nghệ trong nội bộ và giữ những lá bài này gần với áo của họ.

Logo

0 comments Blogger 0 Facebook

Đăng nhận xét

 
Agent.ai.vn © 2024 - Nắm bắt tương lai
Top