Từ bỏ ChatGPT: Tại sao các nhà nghiên cứu giờ đây lại chạy AI nhỏ trên laptop của họ?

Giới thiệu

Trong vài năm gần đây, các chatbot dựa trên mô hình ngôn ngữ lớn (LLM) như ChatGPT đã nhận được nhiều lời khen ngợi về khả năng sáng tác thơ ca, tham gia vào các cuộc trò chuyện và xử lý thông tin phức tạp. Những LLM này thường có hàng trăm tỷ tham số, cho phép chúng đạt đến độ phức tạp cao, nhưng lại chỉ có thể truy cập trực tuyến. Tuy nhiên, gần đây, hai xu hướng mới nổi đã thay đổi cục diện: các tổ chức đang công khai các phiên bản "open weights" của LLM, cho phép người dùng tải xuống và chạy chúng cục bộ, và các công ty công nghệ đang phát triển các phiên bản thu nhỏ có thể chạy trên phần cứng tiêu dùng với hiệu năng ngang ngửa các mô hình lớn hơn trước đây.

AI nhỏ, sức mạnh lớn

Bài viết này khám phá lý do tại sao các nhà nghiên cứu ngày càng ưa chuộng việc chạy AI nhỏ trên laptop của họ thay vì sử dụng các dịch vụ dựa trên đám mây. Việc sử dụng AI cục bộ mang lại nhiều lợi ích như tiết kiệm chi phí, bảo vệ tính bảo mật dữ liệu và đảm bảo tính tái tạo của kết quả nghiên cứu.

Một số công ty công nghệ lớn và viện nghiên cứu đã phát hành các mô hình nhỏ và open-weights trong những năm gần đây, bao gồm Google DeepMind, Meta và Allen Institute for Artificial Intelligence. Các mô hình này, mặc dù được gọi là "nhỏ", vẫn có thể chứa hàng tỷ tham số, lớn hơn nhiều so với các mô hình trước đây.

Ví dụ, Microsoft, đối tác của OpenAI, đã phát hành một loạt các mô hình ngôn ngữ nhỏ Phi, với số lượng tham số từ 3,8 tỷ đến 14 tỷ. Thậm chí, mô hình Phi nhỏ nhất cũng vượt trội hơn GPT-3.5 Turbo của OpenAI, vốn được đồn đoán có 20 tỷ tham số. Theo Sébastien Bubeck, Phó Chủ tịch phụ trách AI thế hệ mới của Microsoft, hiệu năng của Phi-3 đến từ tập dữ liệu huấn luyện đặc biệt. Thay vì chỉ dự đoán token tiếp theo trong các chuỗi văn bản dài, Microsoft đã sử dụng LLM để tạo ra hàng triệu câu chuyện ngắn và sách giáo khoa, nơi mà các sự kiện liên tiếp nhau, tạo điều kiện cho AI hiểu và suy luận logic. Nhờ đó, Phi-3 có thể hoạt động mạnh mẽ trên cả điện thoại di động.

Bảo vệ quyền riêng tư

Một trong những ưu điểm quan trọng nhất của việc sử dụng AI cục bộ là khả năng bảo vệ dữ liệu cá nhân. Việc gửi dữ liệu nhạy cảm, chẳng hạn như hồ sơ bệnh án, cho các dịch vụ thương mại có thể vi phạm các quy định về bảo mật dữ liệu. Các nhà nghiên cứu trong lĩnh vực y tế, chẳng hạn như Cyril Zakka tại Hugging Face, và Johnson Thomas tại Mercy, đều lựa chọn sử dụng AI cục bộ để tránh rủi ro này. Họ áp dụng AI cho các nhiệm vụ như trích xuất chẩn đoán từ báo cáo y tế, tạo câu hỏi và câu trả lời từ sách giáo khoa y khoa, và chuyển đổi cuộc trò chuyện với bệnh nhân thành ghi chú y tế.

Công ty dược phẩm Portrai ở Hàn Quốc cũng đã phát triển CELLama, một hệ thống sử dụng LLM cục bộ để phân tích dữ liệu biểu hiện gen của tế bào, mà không cần gửi dữ liệu ra bên ngoài.

Tính tái tạo và linh hoạt

Ngoài các ưu điểm về bảo mật, việc sử dụng AI cục bộ cũng đảm bảo tính tái tạo của kết quả nghiên cứu. Các mô hình thương mại có thể được cập nhật bất cứ lúc nào, dẫn đến kết quả khác nhau và buộc các nhà nghiên cứu phải điều chỉnh các lời nhắc và mẫu của họ. Chris Thorpe, nhà sinh tin học tại Viện Sinh học Tin học Châu Âu, đã trải nghiệm điều này và ưu tiên sử dụng Llama cục bộ cho nghiên cứu của mình. Ông cũng sử dụng ProtGPT2, một mô hình open-weights khác, để thiết kế các protein mới phục vụ cho công việc nghiên cứu của mình.

Các công cụ hỗ trợ

Hiện nay, có nhiều phần mềm hỗ trợ người dùng tải xuống và chạy LLM cục bộ, bao gồm Ollama, GPT4All và Llamafile. Sharon Machlis, cựu biên tập viên của InfoWorld, đã chia sẻ một hướng dẫn chi tiết về việc sử dụng LLM cục bộ, bao gồm nhiều lựa chọn khác nhau, từ các ứng dụng đơn giản đến các công cụ dòng lệnh phức tạp hơn.

Kết luận

Sự phát triển của LLM đang diễn ra nhanh chóng, mở ra nhiều cơ hội mới cho các nhà nghiên cứu. Các mô hình nhỏ, có thể chạy trên laptop, đang ngày càng mạnh mẽ và đủ tốt cho hầu hết các ứng dụng. Tính bảo mật dữ liệu, tính tái tạo của kết quả và khả năng tùy chỉnh các mô hình cho mục đích cụ thể là những lý do chính thúc đẩy sự phát triển của xu hướng này. Các nhà nghiên cứu được khuyến khích thử nghiệm và khám phá các công cụ mới, bởi vì họ có thể bất ngờ với kết quả đạt được.

Blog post image

0 comments Blogger 0 Facebook

Đăng nhận xét

 
Agent.ai.vn © 2024 - Nắm bắt tương lai
Top