OpenAI: Rời bỏ an toàn AI hay chạy theo lợi nhuận?

Sự ra đi của gần một nửa đội ngũ nghiên cứu an toàn trí tuệ nhân tạo (AGI) tại OpenAI trong những tháng gần đây đang đặt ra câu hỏi về ưu tiên của công ty này.

Theo Daniel Kokotajlo, một cựu nhà nghiên cứu quản trị tại OpenAI, gần một nửa số nhân viên từng tập trung vào việc đánh giá các rủi ro lâu dài của trí tuệ nhân tạo siêu việt đã rời khỏi công ty.

OpenAI, nhà phát triển trợ lý AI ChatGPT, được coi là một trong những công ty tiên phong trong lĩnh vực phát triển AI. Theo điều lệ thành lập, sứ mệnh của OpenAI là phát triển trí tuệ nhân tạo chung (AGI) theo cách “có lợi cho toàn nhân loại”. AGI được OpenAI định nghĩa là các hệ thống tự động có thể thực hiện các công việc có giá trị kinh tế cao nhất, tương tự như những gì con người đang làm hiện nay.

Tuy nhiên, do những rủi ro tiềm ẩn đáng kể từ AGI, bao gồm cả khả năng thoát khỏi sự kiểm soát của con người và gây ra mối đe dọa hiện hữu cho toàn nhân loại, OpenAI đã tuyển dụng một số lượng lớn nhà nghiên cứu tập trung vào "an toàn AGI" - những kỹ thuật để đảm bảo rằng AGI trong tương lai không gây ra nguy hiểm nghiêm trọng hoặc thậm chí là nguy cơ tồn tại.

Kokotajlo cho biết đội ngũ các nhà nghiên cứu này đã bị suy giảm nghiêm trọng do những người đã nghỉ việc gần đây. Trong số những người rời đi có Jan Hendrik Kirchner, Collin Burns, Jeffrey Wu, Jonathan Uesato, Steven Bills, Yuri Burda, Todor Markov và đồng sáng lập John Schulman. Sự ra đi của họ diễn ra sau khi các nhà khoa học trưởng Ilya Sutskever và Jan Leike, người đồng lãnh đạo nhóm "siêu sắp xếp" của OpenAI, tuyên bố từ chức vào tháng 5.

Trong một bài đăng trên mạng xã hội X (Twitter), Leike nói rằng an toàn ngày càng "bị lu mờ bởi những sản phẩm bóng bẩy" tại OpenAI. Nhóm "siêu sắp xếp" có nhiệm vụ nghiên cứu các cách kiểm soát "trí tuệ siêu nhân tạo" - một công nghệ mang tính suy đoán cao hơn cả AGI, bao gồm các hệ thống tự động có khả năng vượt trội so với trí tuệ tổng hợp của tất cả con người.

Kokotajlo chia sẻ với Fortune rằng sự ra đi của các nhà nghiên cứu về an toàn AGI diễn ra một cách chậm rãi nhưng đều đặn trong năm 2024. Từ khoảng 30 nhân viên từng làm việc trong lĩnh vực này, hiện chỉ còn khoảng 16 người.

"Không phải là một hành động phối hợp. Tôi nghĩ đơn giản là mọi người dần dần bỏ cuộc," Kokotajlo nói. Điều này diễn ra trong bối cảnh OpenAI tiếp tục chuyển trọng tâm sang sản phẩm và thương mại, ít chú trọng đến nghiên cứu nhằm tìm ra cách đảm bảo sự phát triển an toàn của AGI.

Sự ra đi của các nhà nghiên cứu an toàn AGI đáng chú ý vì nó có thể phản ánh mức độ cẩn trọng của OpenAI đối với các rủi ro tiềm ẩn của công nghệ mà công ty đang phát triển, và liệu động lực lợi nhuận có đang khiến OpenAI thực hiện các hành động có thể gây nguy hiểm hay không.

Kokotajlo trước đây từng gọi cuộc đua phát triển AGI của các công ty công nghệ lớn là "bất cẩn".

Một phát ngôn viên của OpenAI cho biết công ty "tự hào về thành tích cung cấp các hệ thống AI có khả năng và an toàn nhất và tin tưởng vào cách tiếp cận khoa học của chúng tôi trong việc giải quyết rủi ro." Phát ngôn viên cũng cho biết công ty đồng ý rằng "cuộc tranh luận nghiêm ngặt" liên quan đến các rủi ro AI là "cực kỳ quan trọng" và sẽ "tiếp tục tham gia với chính phủ, xã hội dân sự và các cộng đồng khác trên toàn thế giới."

Mặc dù các nhà nghiên cứu an toàn AGI chủ yếu quan tâm đến việc kiểm soát các hệ thống AGI trong tương lai, một số cách hiệu quả nhất để kiểm soát tốt hơn các mô hình ngôn ngữ lớn, nền tảng của phần mềm AI hiện có, nhằm đảm bảo chúng không sử dụng ngôn ngữ phân biệt chủng tộc hoặc độc hại, viết phần mềm độc hại, hoặc cung cấp cho người dùng hướng dẫn tạo vũ khí sinh học, đã đến từ các nhà nghiên cứu làm việc trong lĩnh vực an toàn AGI.

Kokotajlo không thể nói đến lý do đằng sau tất cả các trường hợp từ chức, nhưng ông nghi ngờ rằng chúng phù hợp với quan điểm của ông về việc OpenAI "khá gần" với việc phát triển AGI, nhưng chưa sẵn sàng để "xử lý tất cả những gì nó mang lại." Điều đó đã dẫn đến điều mà ông gọi là "hiệu ứng lạnh lẽo" trong công ty đối với những người cố gắng công bố nghiên cứu về rủi ro của AGI và "sự gia tăng ảnh hưởng của các bộ phận truyền thông và vận động hành lang của OpenAI" đối với những gì phù hợp để công bố.

OpenAI chưa phản hồi yêu cầu bình luận.

Kokotajlo cho biết những lo ngại của ông về văn hóa đang thay đổi tại OpenAI đã bắt đầu trước những diễn biến trong phòng họp vào tháng 11 năm 2023, khi CEO Sam Altman bị sa thải và sau đó được tái bổ nhiệm nhanh chóng. Trong thời gian đó, ba thành viên hội đồng quản trị của OpenAI tập trung vào an toàn AGI đã bị loại bỏ. "Điều đó đã đóng dấu. Không có gì có thể quay lại sau điều đó," ông nói, và thêm rằng, mặc dù ông không được tiếp cận với những gì diễn ra sau hậu trường, nhưng cảm giác của ông là Altman và chủ tịch Greg Brockman (người gần đây đã nghỉ phép dài hạn) đã "củng cố quyền lực" kể từ đó.

"Những người chủ yếu tập trung vào việc suy nghĩ về an toàn AGI và sự chuẩn bị đang bị gạt ra rìa ngày càng nhiều," ông nói.

Tuy nhiên, nhiều nhà lãnh đạo nghiên cứu AI, bao gồm đồng sáng lập Google Brain Andrew Ng, giáo sư Đại học Stanford Fei-Fei Li và nhà khoa học trưởng Meta Yann LeCun, coi trọng tâm của cộng đồng an toàn AI về mối đe dọa của AI đối với nhân loại là bị cường điệu. Họ cho rằng AGI vẫn còn cách chúng ta nhiều thập kỷ nữa và AI có thể giúp giải quyết những rủi ro hiện hữu đối với nhân loại, bao gồm biến đổi khí hậu và đại dịch trong tương lai. Ngoài ra, họ cho rằng việc tập trung quá mức vào rủi ro AGI, thường bởi các nhà nghiên cứu và tổ chức được tài trợ bởi các tổ chức có liên quan đến phong trào vị tha hiệu quả gây tranh cãi, tập trung mạnh mẽ vào "rủi ro hiện hữu" của AI đối với nhân loại, sẽ dẫn đến các luật kìm hãm sự đổi mới và trừng phạt các nhà phát triển mô hình, thay vì tập trung vào các ứng dụng của mô hình AI.

Những nhà phê bình này nói rằng một ví dụ về một luật như vậy là SB 1047 của California, được hỗ trợ bởi các nhóm có liên kết với vị tha hiệu quả và đã "gây ra cuộc tranh luận dữ dội" trước cuộc bỏ phiếu lập pháp cuối cùng dự kiến diễn ra trong tuần này. Dự luật nhằm đặt ra các rào chắn cho việc phát triển và sử dụng các mô hình AI mạnh mẽ nhất.

Kokotajlo cho biết ông thất vọng, nhưng không ngạc nhiên khi OpenAI phản đối SB 1047. Cùng với cựu đồng nghiệp William Saunders, ông đã "viết một bức thư" tuần trước gửi cho nhà tài trợ của dự luật, Thượng nghị sĩ bang Scott Wiener, nói rằng những lời phàn nàn của OpenAI về dự luật "không có vẻ gì là thiện chí".

"Trong một số khía cạnh, đây là sự phản bội kế hoạch mà chúng tôi đã có từ năm 2022," Kokotajlo nói với Fortune, chỉ ra điều mà ông gọi là nỗ lực của OpenAI và toàn ngành công nghiệp AI trong việc đánh giá các rủi ro lâu dài của AGI và đạt được cam kết tự nguyện về cách phản ứng với các ngưỡng nguy hiểm bị vượt qua, và sử dụng những kết quả đó như "nguồn cảm hứng và khuôn mẫu cho luật pháp và quy định".

Dù vậy, Kokotajlo vẫn không hối tiếc về việc gia nhập OpenAI. "Tôi nghĩ mình đã học được rất nhiều điều hữu ích ở đó. Tôi cảm thấy mình có thể đã tạo ra sự khác biệt tích cực," ông nói, mặc dù ông hối tiếc đã không rời đi sớm hơn. "Tôi đã bắt đầu cân nhắc điều đó trước khủng hoảng hội đồng quản trị và nhìn lại, tôi đáng lẽ nên làm điều đó."

Ông có những người bạn vẫn đang làm việc về an toàn AGI tại OpenAI và cho biết, mặc dù nhóm "siêu sắp xếp" của OpenAI đã bị "giải tán" sau khi Leike rời đi, một số người còn lại đã chuyển sang các nhóm khác nơi họ được phép làm việc trên các dự án tương tự. Và chắc chắn vẫn có những người khác trong công ty tập trung vào sự an toàn của các mô hình AI hiện tại của OpenAI. Sau khi giải tán nhóm Superalignment, vào tháng 5, OpenAI đã "tuyên bố" thành lập một ủy ban an ninh và an toàn mới "có trách nhiệm đưa ra khuyến nghị về các quyết định an ninh và an toàn quan trọng cho tất cả các dự án của OpenAI." Tháng này, OpenAI đã bổ nhiệm giáo sư Đại học Carnegie Mellon Zico Kolter, người có công trình nghiên cứu tập trung vào bảo mật AI, vào hội đồng quản trị của mình.

Nhưng đối với những người còn lại trong công ty, Kokotajlo cảnh báo về tư duy nhóm giữa cuộc đua của các công ty AI lớn nhất để phát triển AGI đầu tiên. "Tôi nghĩ một phần của những gì đang xảy ra…là, một cách tự nhiên, những gì được coi là quan điểm hợp lý trong công ty được định hình bởi những gì đa số nghĩ, và cũng bởi những động lực mà mọi người đang phải chịu," ông nói. "Vì vậy, không có gì đáng ngạc nhiên khi các công ty kết luận rằng điều tốt cho nhân loại là họ giành chiến thắng trong cuộc đua đến AGI - đó là kết luận được khuyến khích."

Cập nhật ngày 27 tháng 8: Câu chuyện này đã được cập nhật để bao gồm các tuyên bố từ một phát ngôn viên của OpenAI.


Blog post image

0 comments Blogger 0 Facebook

Đăng nhận xét

 
Agent.ai.vn © 2024 - Nắm bắt tương lai
Top