Khoảng Cách Giữa Mô Hình AI Mở và Đóng Đang Thu Hẹp Nhanh Hơn Dự Kiến

Mục lục:


Sự Khác Biệt Giữa Mô Hình AI Mở và Đóng

Bài báo trên trang Analytics India Magazine cho thấy khoảng cách giữa các mô hình ngôn ngữ lớn (LLM) mã nguồn mở và mã nguồn đóng đang thu hẹp nhanh chóng, thậm chí nhanh hơn dự đoán. Theo báo cáo của Epoch AI, các LLM mã nguồn mở tốt nhất đã tụt hậu so với các LLM mã nguồn đóng tốt nhất từ 5 đến 22 tháng về hiệu suất đánh giá chuẩn. Tuy nhiên, xu hướng này đang thay đổi. Llama 3.1 405B của Meta là mô hình mở gần đây nhất đã thu hẹp khoảng cách này trên nhiều tiêu chí đánh giá. Báo cáo cũng chỉ ra rằng, dù các mô hình đóng vẫn vượt trội về độ chính xác và đánh giá ưu tiên của người dùng trên các bảng xếp hạng như LMSYS Chatbot Arena và SEAL Coding, nhưng sự khác biệt đang dần giảm đi.


Llama của Meta: Sắp Vượt Mặt Các Đối Thủ

Các mô hình Llama của Meta đang hướng tới trí tuệ máy tính tự chủ với những tiến bộ trong khả năng lập luận thời gian thực và khả năng thích ứng. Phiên bản Llama trong tương lai sẽ có khả năng tự nhận biết mình đang đi đúng hướng và tự điều chỉnh nếu cần thiết, giúp giải quyết các vấn đề phức tạp tốt hơn bằng cách kết hợp nhận thức, lập luận và lập kế hoạch. Việc sử dụng học tập tự giám sát (SSL) để thu thập kiến thức rộng và học tăng cường với phản hồi của con người (RLHF) để phù hợp với nhiệm vụ cụ thể cũng giúp Llama nổi bật. Hơn nữa, Llama còn xuất sắc trong việc tạo dữ liệu tổng hợp cho các ngôn ngữ ít được sử dụng, làm cho nó trở nên lý tưởng cho các ứng dụng đa ngôn ngữ.

Llama 3.1 405B đã được Meta chính thức phát hành, ngang ngửa với các mô hình mã nguồn đóng tốt nhất. Nó hỗ trợ độ dài ngữ cảnh 128k và 8 ngôn ngữ, cung cấp khả năng mạnh mẽ trong việc tạo mã, lập luận phức tạp và sử dụng công cụ. Meta đã tuyên bố mục tiêu trở thành trợ lý AI được sử dụng nhiều nhất thế giới vào cuối năm nay. Zuckerberg dự đoán các mô hình Llama trong tương lai sẽ trở nên tiên tiến nhất trong ngành, bắt đầu từ năm sau. Llama 3.2 còn được cải tiến thêm với các tác vụ AI biên và thị giác, cung cấp cả các mô hình thị giác LLM nhỏ và trung bình (11B và 90B) và các mô hình nhẹ (1B và 3B) được tối ưu hóa cho sử dụng trên thiết bị.


Llama Không Cô Đơn

Mô hình ngôn ngữ nhỏ (SLM) cũng đang ngày càng phổ biến, đặc biệt hữu ích cho các ứng dụng không đòi hỏi độ chính xác đầu ra cao. Meta, Microsoft, HuggingFace và OpenAI đều đang nỗ lực phát triển các mô hình hiệu quả và nhỏ gọn. Thậm chí hệ sinh thái AI của Ấn Độ cũng đã nhanh chóng chuyển sang SLM. Điều này cho thấy rào cản gia nhập để huấn luyện các mô hình này ngày càng giảm.


Những Dự Đoán

Mặc dù Ilya Sutskever, nhà khoa học trưởng (cựu) của OpenAI, cho rằng khoảng cách giữa các mô hình mã nguồn mở và riêng tư có thể tiếp tục tăng do các nhóm nhỏ phát triển mô hình mã nguồn mở ít thường xuyên hơn và mạng nơ-ron tiên tiến cần nhiều kỹ thuật hơn, báo cáo của Epoch AI vẫn dự đoán khoảng cách giữa các mô hình mở và đóng tốt nhất sẽ thu hẹp lại vào năm tới. Tuy nhiên, báo cáo cũng thừa nhận bằng chứng về sự thay đổi này vẫn chưa rõ ràng. Sự phát triển nhanh chóng của các mô hình mã nguồn mở, ví dụ như HuggingFace hiện đang lưu trữ hơn 1 triệu mô hình, cho thấy tiềm năng to lớn của hướng đi này.

Logo

0 comments Blogger 0 Facebook

Đăng nhận xét

 
Agent.ai.vn © 2024 - Nắm bắt tương lai
Top