OpenAI và nỗ lực minh bạch hóa AI

Mục lục

  1. OpenAI tập trung vào an toàn AI
  2. Kỹ thuật mới thúc đẩy minh bạch
  3. Quan ngại về sự thiếu kiểm soát
  4. Lời kêu gọi tăng cường giám sát

OpenAI tập trung vào an toàn AI

Trong bối cảnh lo ngại về tốc độ phát triển AI, OpenAI đang nỗ lực chứng minh cam kết của mình đối với an toàn AI. Công ty vừa công bố nghiên cứu mới có thể giúp các nhà nghiên cứu kiểm tra mô hình AI một cách hiệu quả hơn, ngay cả khi chúng trở nên phức tạp và hiệu quả hơn.

Kỹ thuật mới thúc đẩy minh bạch

Kỹ thuật mới này là một trong nhiều ý tưởng liên quan đến an toàn AI mà OpenAI đã giới thiệu trong những tuần gần đây. Nó bao gồm việc cho hai mô hình AI tham gia vào cuộc trò chuyện, buộc mô hình mạnh hơn phải minh bạch hơn trong suy luận của nó, giúp con người hiểu được mục tiêu của nó.

Yining Chen, một nhà nghiên cứu của OpenAI, cho biết: Đây là cốt lõi của sứ mệnh xây dựng một [trí tuệ nhân tạo chung] vừa an toàn vừa có lợi.

Cho đến nay, nghiên cứu đã được thử nghiệm trên mô hình AI được thiết kế để giải quyết các bài toán đơn giản. Các nhà nghiên cứu OpenAI yêu cầu mô hình AI giải thích suy luận của nó khi trả lời câu hỏi hoặc giải quyết vấn đề. Một mô hình thứ hai được đào tạo để phát hiện xem câu trả lời có chính xác hay không, và các nhà nghiên cứu nhận thấy rằng việc cho hai mô hình tham gia vào một cuộc trao đổi đã khuyến khích mô hình giải quyết toán học trở nên thẳng thắn và minh bạch hơn trong suy luận của nó.

OpenAI đang công khai phát hành một bài báo chi tiết về phương pháp này. Jan Hendrik Kirchner, một nhà nghiên cứu OpenAI khác tham gia vào công việc này, cho biết: Đây là một phần của kế hoạch nghiên cứu an toàn dài hạn. Chúng tôi hy vọng rằng các nhà nghiên cứu khác có thể tiếp tục, và có thể thử các thuật toán khác.

Quan ngại về sự thiếu kiểm soát

Minh bạch và khả năng giải thích là những vấn đề chính đối với các nhà nghiên cứu AI đang làm việc để xây dựng các hệ thống mạnh mẽ hơn. Các mô hình ngôn ngữ lớn đôi khi đưa ra những lời giải thích hợp lý về cách chúng đi đến kết luận, nhưng một vấn đề chính là các mô hình trong tương lai có thể trở nên mờ ám hơn hoặc thậm chí là lừa dối trong những lời giải thích mà chúng cung cấp, có thể theo đuổi một mục tiêu không mong muốn trong khi nói dối về nó.

Nghiên cứu được tiết lộ hôm nay là một phần của nỗ lực rộng lớn hơn nhằm hiểu cách các mô hình ngôn ngữ lớn, là cốt lõi của các chương trình như ChatGPT, hoạt động. Đây là một trong một số kỹ thuật có thể giúp làm cho các mô hình AI mạnh mẽ hơn trở nên minh bạch hơn và do đó an toàn hơn. OpenAI và các công ty khác cũng đang khám phá các cách thức cơ học hơn để nhìn vào hoạt động bên trong của các mô hình ngôn ngữ lớn.

Lời kêu gọi tăng cường giám sát

OpenAI đã tiết lộ nhiều hơn về công việc của họ về an toàn AI trong những tuần gần đây sau những lời chỉ trích về cách tiếp cận của họ. Vào tháng 5, WIRED đã biết rằng một nhóm các nhà nghiên cứu chuyên nghiên cứu rủi ro AI dài hạn đã bị giải tán. Điều này xảy ra ngay sau khi người đồng sáng lập và lãnh đạo kỹ thuật chính Ilya Sutskever rời đi, người là một trong những thành viên hội đồng quản trị đã ngắn gọn sa thải CEO Sam Altman vào tháng 11 năm ngoái.

OpenAI được thành lập với lời hứa sẽ làm cho AI trở nên minh bạch hơn với sự kiểm tra và an toàn hơn. Sau thành công rực rỡ của ChatGPT và sự cạnh tranh gay gắt hơn từ các đối thủ cạnh tranh được hậu thuẫn mạnh mẽ, một số người đã cáo buộc công ty ưu tiên những tiến bộ hào nhoáng và thị phần hơn là an toàn.

Daniel Kokotajlo, một nhà nghiên cứu đã rời OpenAI và ký vào một bức thư ngỏ chỉ trích cách tiếp cận của công ty đối với an toàn AI, cho biết công việc mới này rất quan trọng, nhưng chỉ là tăng cường, và điều đó không thay đổi thực tế là các công ty xây dựng công nghệ cần được giám sát nhiều hơn. Tình hình chúng ta đang ở vẫn không thay đổi, anh nói. Các tập đoàn mờ ám, không có trách nhiệm, không được quản lý đang đua nhau để xây dựng siêu trí tuệ nhân tạo, về cơ bản không có kế hoạch nào để kiểm soát nó.

Một nguồn tin khác có kiến thức về hoạt động nội bộ của OpenAI, người yêu cầu không được nêu tên vì họ không được phép phát biểu công khai, cho biết giám sát bên ngoài đối với các công ty AI cũng cần thiết. Câu hỏi đặt ra là liệu họ có nghiêm túc về các loại quy trình và cơ chế quản trị mà bạn cần để ưu tiên lợi ích xã hội hơn lợi nhuận hay không, nguồn tin nói. Không phải là họ cho phép bất kỳ nhà nghiên cứu nào của họ làm một số việc về an toàn.

OpenAI logo

0 comments Blogger 0 Facebook

Đăng nhận xét

 
Agent.ai.vn © 2024 - Nắm bắt tương lai
Top