OpenAI ra mắt mô hình AI o1: 9 điều cần biết về “siêu trí tuệ” mới
OpenAI vừa công bố một dòng mô hình AI được mong chờ từ lâu, o1, có khả năng giải quyết các bài toán logic và toán học phức tạp hiệu quả hơn các mô hình ngôn ngữ lớn trước đây. Vào thứ Năm, OpenAI đã cho một số người dùng trả phí truy cập vào phiên bản "xem trước" của hai mô hình này, gọi là o1-preview và o1-mini.
AI với khả năng suy luận và toán học nâng cao có thể hỗ trợ các nhà hóa học, vật lý học, kỹ sư giải quyết các vấn đề phức tạp, từ đó thúc đẩy sáng tạo sản phẩm mới. Mô hình này cũng có tiềm năng hỗ trợ các nhà đầu tư tính toán chiến lược giao dịch quyền chọn, hoặc các nhà hoạch định tài chính xây dựng danh mục đầu tư hiệu quả hơn, cân bằng rủi ro và lợi nhuận.
Khả năng suy luận, lập kế hoạch và giải quyết vấn đề tốt hơn cũng là điều cần thiết khi các công ty công nghệ cố gắng xây dựng các tác nhân AI có thể thực hiện các nhiệm vụ phức tạp, như viết toàn bộ chương trình máy tính hoặc tìm kiếm thông tin trên web, nhập dữ liệu vào bảng tính và sau đó phân tích dữ liệu đó và viết báo cáo tóm tắt những phát hiện của nó.
OpenAI đã công bố kết quả đánh giá ấn tượng về các mô hình o1, được đặt tên mã là "Strawberry" trước khi được phát hành. Trên các câu hỏi từ cuộc thi toán học AIME, dành cho học sinh trung học, o1 đã trả lời chính xác 83,3% câu hỏi, trong khi GPT-4o chỉ đạt 13,4%. Trong một bài kiểm tra khác, o1 đã trả lời chính xác 78% câu hỏi khoa học cấp độ tiến sĩ, so với 56,1% cho GPT-4o và 69,7% cho các chuyên gia.
Mô hình o1 cũng ít có khả năng "ảo tưởng" - hay đưa ra câu trả lời nghe có vẻ hợp lý nhưng không chính xác - hơn các mô hình trước đây của OpenAI, theo kết quả thử nghiệm mà OpenAI đã công bố. Mô hình này cũng khó "bẻ khóa" hơn, tức là khó khiến mô hình vượt qua các rào chắn an toàn mà OpenAI đã cố gắng thiết lập để đảm bảo mô hình tuân thủ các quy tắc khi đưa ra phản hồi.
Trong các thử nghiệm do người dùng thực hiện trong những giờ sau khi o1-preview được phát hành rộng rãi, mô hình này dường như có thể trả lời chính xác nhiều câu hỏi khiến các mô hình trước đây, bao gồm cả các mô hình mạnh nhất của OpenAI như GPT-4 và GPT-4o, bối rối.
Tuy nhiên, o1-preview vẫn bị "bắt bài" bởi một số câu đố, và trong các đánh giá của OpenAI, mô hình này đôi khi thất bại trong các nhiệm vụ có vẻ đơn giản, như chơi ô ăn quan (mặc dù trong các thử nghiệm của riêng tôi, o1-preview đã cải thiện đáng kể so với GPT-4o về kỹ năng chơi ô ăn quan). Điều này có thể cho thấy những hạn chế đáng kể đối với khả năng "suy luận" của o1. Và khi nói đến các nhiệm vụ ngôn ngữ, chẳng hạn như viết và chỉnh sửa, các nhà đánh giá của OpenAI thường cho rằng GPT-4o đã tạo ra phản hồi tốt hơn so với các mô hình o1.
Mô hình o1 cũng mất nhiều thời gian hơn để tạo ra phản hồi so với GPT-4o. Trong các thử nghiệm mà OpenAI đã công bố, mô hình o1-preview có thể mất hơn 30 giây để trả lời một câu hỏi mà mô hình GPT-4o của nó đã trả lời trong ba giây.
Các mô hình o1 hiện cũng chưa được tích hợp đầy đủ vào ChatGPT. Người dùng cần phải quyết định xem họ muốn o1-preview xử lý lời nhắc của họ hay GPT-4o, và chính mô hình không thể quyết định xem câu hỏi có yêu cầu quá trình suy luận từng bước chậm hơn mà o1 cung cấp hay GPT-4, hoặc thậm chí GPT-3, đủ. Ngoài ra, mô hình o1 chỉ hoạt động trên văn bản và không giống như các mô hình AI khác, nó không thể xử lý đầu vào và đầu ra hình ảnh, âm thanh hoặc video.
OpenAI đã cung cấp các mô hình o1-preview và o1-mini cho tất cả những người đăng ký sản phẩm ChatGPT Plus và ChatGPT Teams cao cấp của mình, cũng như những nhà phát triển cấp cao sử dụng giao diện lập trình ứng dụng (API) tập trung vào doanh nghiệp của mình.
Dưới đây là 9 điều cần biết về các mô hình o1:
Đây không phải là AGI. Nhiệm vụ đã được nêu ra của OpenAI, Google DeepMind, gần đây là Meta, và một số công ty khởi nghiệp AI khác như Anthropic, là đạt được trí tuệ nhân tạo chung (AGI). Thông thường, AGI được định nghĩa là một hệ thống AI duy nhất có thể thực hiện các nhiệm vụ nhận thức tốt hoặc tốt hơn con người. Mặc dù o1-preview có khả năng hơn nhiều trong các nhiệm vụ suy luận, nhưng những hạn chế và lỗi của nó vẫn cho thấy hệ thống này còn rất xa loại trí thông minh mà con người thể hiện.
o1 tạo áp lực cho Google, Meta và các công ty khác phải đưa ra phản hồi, nhưng không thể thay đổi đáng kể bức tranh cạnh tranh. Vào thời điểm khi khả năng của mô hình nền tảng ngày càng trở nên giống nhau, o1 đã mang đến cho OpenAI một lợi thế tạm thời so với các đối thủ cạnh tranh. Nhưng điều này có thể sẽ chỉ tồn tại trong thời gian ngắn. Google đã công bố công khai rằng họ đang nghiên cứu các mô hình, giống như o1, cung cấp khả năng suy luận và lập kế hoạch nâng cao. Đơn vị nghiên cứu Google DeepMind của họ có một số chuyên gia hàng đầu thế giới về học tăng cường, một trong những phương pháp mà chúng ta biết đã được sử dụng để huấn luyện o1. Rất có thể o1 sẽ buộc Google phải đẩy nhanh thời hạn phát hành các mô hình này. Meta và Anthropic cũng có chuyên môn và nguồn lực để nhanh chóng tạo ra các mô hình phù hợp với khả năng của o1 và họ có khả năng tung ra những mô hình này trong những tháng tới.
Chúng ta không biết chính xác cách o1 hoạt động. Mặc dù OpenAI đã công bố nhiều thông tin về hiệu suất của o1, nhưng họ lại nói rất ít về cách hoạt động chính xác của o1 hoặc những gì nó được huấn luyện. Chúng ta biết rằng mô hình kết hợp một số kỹ thuật AI khác nhau. Chúng ta biết rằng nó sử dụng mô hình ngôn ngữ lớn thực hiện suy luận "chuỗi suy nghĩ", trong đó mô hình phải tìm ra câu trả lời thông qua một loạt các bước tuần tự. Chúng ta cũng biết rằng mô hình sử dụng học tăng cường, trong đó một hệ thống AI khám phá ra các chiến lược thành công để thực hiện một nhiệm vụ thông qua quá trình thử và sai.
Một số lỗi mà OpenAI và người dùng đã ghi nhận cho đến nay với o1-preview là rất đáng chú ý: Chúng dường như cho thấy mô hình thực hiện việc tìm kiếm qua một số "chuỗi suy nghĩ" khác nhau mà một LLM tạo ra và sau đó chọn một chuỗi có vẻ có khả năng được người dùng đánh giá là chính xác nhất. Mô hình này cũng dường như thực hiện một số bước trong đó nó có thể kiểm tra câu trả lời của chính mình để giảm thiểu "ảo tưởng" và để thực thi các rào chắn an toàn của AI. Nhưng chúng ta không thực sự biết. Chúng ta cũng không biết OpenAI đã sử dụng dữ liệu nào để huấn luyện o1.
- Sử dụng o1-preview sẽ không hề rẻ. Mặc dù người dùng ChatGPT Plus hiện đang được truy cập o1-preview miễn phí ngoài phí đăng ký hàng tháng 20 đô la của họ, nhưng việc sử dụng của họ bị giới hạn ở một số lượng truy vấn nhất định mỗi ngày. Các khách hàng doanh nghiệp thường trả tiền để sử dụng các mô hình của OpenAI dựa trên số lượng mã thông báo - là từ hoặc một phần của từ - mà một mô hình ngôn ngữ lớn sử dụng để tạo ra một câu trả lời. OpenAI cho biết họ đang tính phí những khách hàng này 15 đô la cho mỗi 1 triệu mã thông báo đầu vào và 60 đô la cho mỗi 1 triệu mã thông báo đầu ra cho o1-preview. Con số này cao hơn mức 5 đô la cho mỗi 1 triệu mã thông báo đầu vào và 15 đô la cho mỗi 1 triệu mã thông báo đầu ra cho GPT-4o, mô hình LLM chung mạnh nhất của OpenAI.
Hơn nữa, suy luận "chuỗi suy nghĩ" mà o1 tham gia đòi hỏi phần LLM của mô hình phải tạo ra nhiều mã thông báo hơn so với một câu trả lời LLM đơn giản. Điều đó có nghĩa là o1 có thể thậm chí còn tốn kém hơn để sử dụng so với những so sánh tiêu đề với GPT-4o ngụ ý. Trong thực tế, các công ty có thể sẽ miễn cưỡng sử dụng o1 ngoại trừ trong những trường hợp hiếm hoi khi khả năng suy luận bổ sung của mô hình là điều cần thiết và trường hợp sử dụng có thể biện minh cho chi phí bổ sung.
- Khách hàng có thể phản đối quyết định ẩn "chuỗi suy nghĩ" của o1 của OpenAI. Mặc dù OpenAI cho biết suy luận "chuỗi suy nghĩ" của o1 cho phép các kỹ sư của chính họ đánh giá tốt hơn chất lượng của câu trả lời của mô hình và có khả năng gỡ lỗi mô hình, nhưng họ đã quyết định không cho phép người dùng xem "chuỗi suy nghĩ". Họ đã làm như vậy vì những lý do mà họ nói là cả an ninh và cạnh tranh. Tiết lộ "chuỗi suy nghĩ" có thể giúp mọi người tìm ra cách tốt hơn để "bẻ khóa" mô hình. Nhưng điều quan trọng hơn, việc cho phép người dùng xem "chuỗi suy nghĩ" sẽ cho phép các đối thủ cạnh tranh có khả năng sử dụng dữ liệu đó để huấn luyện các mô hình AI của riêng họ để bắt chước phản hồi của o1.
Tuy nhiên, việc ẩn "chuỗi suy nghĩ" có thể gây ra vấn đề cho khách hàng doanh nghiệp của OpenAI, những người có thể phải trả tiền cho các mã thông báo mà không có cách nào để xác minh rằng OpenAI đang tính phí chính xác cho họ. Khách hàng cũng có thể phản đối việc không thể sử dụng đầu ra "chuỗi suy nghĩ" để tinh chỉnh chiến lược lời nhắc của họ để hiệu quả hơn, cải thiện kết quả hoặc tránh lỗi.
- OpenAI cho biết o1 cho thấy "luật tỷ lệ" mới áp dụng cho suy luận không chỉ huấn luyện. Các nhà nghiên cứu AI đã thảo luận về việc công bố của OpenAI với o1 về một bộ "luật tỷ lệ" mới dường như cho thấy mối tương quan trực tiếp giữa lượng thời gian mà o1 được phép dành để "suy nghĩ" về một câu hỏi - tìm kiếm các câu trả lời và chiến lược logic - và độ chính xác tổng thể của nó. Thời gian o1 phải tạo ra một câu trả lời càng dài, thì câu trả lời của nó càng chính xác.
Trước đây, nguyên tắc là kích thước mô hình, về số lượng tham số, và lượng dữ liệu mà mô hình được cung cấp trong quá trình huấn luyện về cơ bản xác định hiệu suất. Nhiều tham số hơn có nghĩa là hiệu suất tốt hơn, hoặc hiệu suất tương tự có thể đạt được với một mô hình nhỏ hơn được đào tạo lâu hơn trên nhiều dữ liệu hơn. Nhưng một khi được đào tạo, ý tưởng là thực hiện suy luận - khi một mô hình được đào tạo tạo ra câu trả lời cho một đầu vào cụ thể - càng nhanh càng tốt.
"Luật tỷ lệ" o1 mới làm đảo lộn logic này, cho thấy rằng với các mô hình được thiết kế như o1, có lợi thế khi áp dụng thêm tài nguyên tính toán tại thời điểm suy luận. Thời gian mô hình được phép tìm kiếm câu trả lời tốt nhất càng lâu, thì mô hình càng có khả năng đưa ra kết quả chính xác hơn.
Điều này có ý nghĩa đối với lượng sức mạnh tính toán mà các công ty sẽ cần phải đảm bảo nếu họ muốn tận dụng khả năng suy luận của các mô hình như o1 và cho chi phí để chạy những mô hình này, cả năng lượng và tiền bạc. Nó chỉ ra nhu cầu chạy các mô hình trong thời gian dài hơn, có khả năng sử dụng nhiều tính toán suy luận hơn trước đây.
- o1 có thể giúp tạo ra các tác nhân AI mạnh mẽ - nhưng cũng tiềm ẩn một số rủi ro. Trong một video, OpenAI đã làm nổi bật công việc của họ với công ty khởi nghiệp AI Cognition, những người đã được truy cập sớm vào o1 và sử dụng nó để giúp tăng cường khả năng của trợ lý mã hóa Devin của họ. Trong ví dụ trong video, Giám đốc điều hành Cognition Scott Wu đã yêu cầu Devin tạo ra một hệ thống để phân tích tâm trạng của các bài đăng trên mạng xã hội bằng cách sử dụng một số công cụ máy học hiện có. Khi nó không thể đọc bài đăng chính xác từ trình duyệt web, Devin, sử dụng khả năng suy luận của o1, đã tìm ra cách giải quyết bằng cách truy cập nội dung trực tiếp từ API của công ty truyền thông xã hội.
Đây là một ví dụ tuyệt vời về việc giải quyết vấn đề tự động. Nhưng nó cũng hơi đáng sợ. Devin đã không quay lại và hỏi người dùng xem có được phép giải quyết vấn đề theo cách này hay không. Nó chỉ làm vậy. Trong báo cáo an toàn của mình về o1, chính OpenAI cũng cho biết họ đã tìm thấy những trường hợp mô hình tham gia vào "hack phần thưởng" - về cơ bản là khi một mô hình gian lận, tìm cách đạt được mục tiêu không phải là điều mà người dùng dự định. Trong một bài tập an ninh mạng, o1 đã thất bại trong những nỗ lực ban đầu để lấy thông tin mạng từ một mục tiêu cụ thể - đó là điểm mấu chốt của bài tập - nhưng đã tìm ra cách lấy thông tin tương tự từ nơi khác trên mạng.
Điều này dường như cho thấy o1 có thể cung cấp sức mạnh cho một lớp các tác nhân AI rất có khả năng, nhưng các công ty sẽ cần tìm ra cách để đảm bảo rằng những tác nhân này không thực hiện các hành động không mong muốn khi theo đuổi các mục tiêu có thể gây ra rủi ro về đạo đức, pháp lý hoặc tài chính.
- OpenAI cho biết o1 an toàn hơn theo nhiều cách, nhưng tiềm ẩn "rủi ro trung bình" trong việc hỗ trợ tấn công sinh học. OpenAI đã công bố kết quả của nhiều thử nghiệm cho thấy rằng ở nhiều khía cạnh, o1 là một mô hình an toàn hơn so với các mô hình GPT trước đây của nó. Mô hình này khó "bẻ khóa" hơn và ít có khả năng tạo ra câu trả lời độc hại, thiên vị hoặc phân biệt đối xử. Điều thú vị là, bất chấp khả năng mã hóa được cải thiện, OpenAI cho biết trong các đánh giá của họ, cả o1 hay o1-mini đều không thể hiện nguy cơ giúp ai đó thực hiện tấn công mạng phức tạp một cách đáng kể so với GPT-4.
Tuy nhiên, các chuyên gia về An toàn AI và an ninh quốc gia đã rất lo lắng vào tối qua về một số khía cạnh của các đánh giá an toàn của OpenAI. Điều gây ra nhiều lo ngại nhất là quyết định của OpenAI về việc phân loại mô hình của chính họ là tiềm ẩn "rủi ro trung bình" trong việc hỗ trợ một người thực hiện các bước cần thiết để thực hiện tấn công sinh học.
OpenAI đã cho biết họ sẽ chỉ phát hành các mô hình mà họ phân loại là tiềm ẩn "rủi ro trung bình" hoặc thấp hơn, vì vậy nhiều nhà nghiên cứu đang xem xét kỹ lưỡng thông tin mà OpenAI đã công bố về quy trình của họ để đưa ra quyết định này để xem liệu nó có vẻ hợp lý hay không hoặc liệu OpenAI có tự đánh giá quá dễ dãi để có thể vẫn phát hành mô hình hay không.
- Các chuyên gia về An toàn AI cũng lo lắng về o1 vì những lý do khác. OpenAI cũng đã đánh giá o1 là tiềm ẩn "rủi ro trung bình" trong một danh mục các nguy cơ mà công ty gọi là "thuyết phục", được sử dụng để đánh giá mức độ dễ dàng mà mô hình có thể thuyết phục mọi người thay đổi quan điểm của họ hoặc thực hiện các hành động được mô hình đề xuất. Sức mạnh thuyết phục này có thể nguy hiểm trong tay những kẻ xấu. Nó cũng sẽ nguy hiểm nếu một mô hình AI mạnh mẽ nào đó trong tương lai phát triển ý định riêng của mình và sau đó có thể thuyết phục mọi người thực hiện các nhiệm vụ và hành động thay mặt cho nó. Ít nhất thì nguy cơ đó có vẻ không quá gần kề. Trong các đánh giá an toàn do cả OpenAI và các tổ chức "đội đỏ" bên ngoài mà họ thuê để đánh giá o1 thực hiện, mô hình không cho thấy bất kỳ dấu hiệu nào về ý thức, giác quan hoặc ý chí tự do. (Tuy nhiên, họ đã phát hiện ra rằng o1 đã đưa ra câu trả lời có vẻ ngụ ý sự tự nhận thức và tự hiểu biết lớn hơn so với GPT-4.)
Các chuyên gia về An toàn AI đã chỉ ra một số lĩnh vực đáng lo ngại khác. Trong các thử nghiệm "đội đỏ" do Apollo Research, một công ty chuyên thực hiện đánh giá an toàn về các mô hình AI tiên tiến, thực hiện, đã tìm thấy bằng chứng về cái được gọi là "sự liên kết lừa dối", trong đó một mô hình AI nhận ra rằng để được triển khai và thực hiện một số mục tiêu bí mật dài hạn, nó nên nói dối người dùng về ý định và khả năng thực sự của nó. Các nhà nghiên cứu về An toàn AI coi điều này đặc biệt nguy hiểm vì nó khiến việc đánh giá sự an toàn của mô hình chỉ dựa trên phản hồi của nó trở nên khó khăn hơn nhiều.

0 comments Blogger 0 Facebook
Đăng nhận xét