Giới hạn của trí tuệ nhân tạo: Nghiên cứu mới hé lộ khả năng thực sự của AI

Mục lục:

  1. Giới thiệu
  2. Thực trạng và hạn chế của mô hình ngôn ngữ lớn
  3. Kết quả nghiên cứu
  4. Kết luận

2. Thực trạng và hạn chế của mô hình ngôn ngữ lớn

Các mô hình ngôn ngữ lớn (LLMs) như GPT-4 và Claude đã trải qua quá trình huấn luyện phức tạp để thực hiện các tác vụ phức tạp. Tuy nhiên, nghiên cứu mới đây từ Phòng thí nghiệm Khoa học máy tính và Trí tuệ nhân tạo của MIT đã cho thấy những hạn chế của chúng.

Các nhà nghiên cứu đã đưa ra những nhiệm vụ cơ bản, trái ngược với những gì các mô hình này được đào tạo, để đánh giá khả năng ghi nhớ và lập luận của chúng. Họ phát triển các bài toán logic, đánh giá và toán học hoàn toàn mới đối với GPT-4 và Claude nhưng phù hợp với khả năng của chúng.

Kết quả cho thấy, LLMs chỉ có thể thực hiện các tác vụ quen thuộc, nhất quán và không có khả năng tổng quát hóa. Ví dụ, khi được huấn luyện với các bài toán số học, chúng chủ yếu được dạy trong hệ thập phân. Do đó, khi tương tác với người dùng, LLMs tạo ra ấn tượng rằng chúng giỏi toán học. Tuy nhiên, chúng không thể thực hiện tốt trong các hệ cơ số khác.

3. Kết quả nghiên cứu

Nghiên cứu cũng chỉ ra rằng LLMs gặp khó khăn khi giải quyết các bài toán cờ vua được sửa đổi, xác định các nốt nhạc trên đàn hoặc thực hiện các nhiệm vụ liên quan đến suy luận không gian.

4. Kết luận

Mặc dù nghiên cứu này có một số hạn chế vì chỉ thử nghiệm với các nhiệm vụ cụ thể thay vì các vấn đề và thử thách trong cuộc sống thực, nó vẫn cho thấy rằng các mô hình AI không mạnh mẽ như chúng ta nghĩ. Chúng chỉ thực hiện những gì đã được đào tạo và không thể thực hiện tốt nếu được giao các nhiệm vụ không nằm trong phạm vi huấn luyện của chúng.

Nghiên cứu này nhấn mạnh sự cần thiết phải đào tạo các mô hình AI với nhiều loại nhiệm vụ và dữ liệu để nâng cao khả năng tổng quát hóa và thích ứng với các tình huống mới.

Logo

0 comments Blogger 0 Facebook

Đăng nhận xét

 
Agent.ai.vn © 2024 - Nắm bắt tương lai
Top