OpenAI tung ra GPT-4o Mini với tính năng bảo mật mới

Mục lục

  1. Vấn đề bỏ qua mọi lệnh trước đó
  2. Giải pháp bậc thang lệnh
  3. Ứng dụng thực tế của GPT-4o Mini
  4. Tầm nhìn của OpenAI về tương lai
  5. Lo ngại về vấn đề bảo mật của OpenAI

1. Vấn đề bỏ qua mọi lệnh trước đó

Bạn có từng thấy những meme trên mạng nơi mọi người yêu cầu chatbot bỏ qua mọi lệnh trước đó và sau đó phá vỡ nó theo những cách hài hước nhất? Vấn đề này xuất phát từ việc chatbot có thể bị lừa bằng cách đưa ra những lệnh trái ngược với lệnh ban đầu. Ví dụ, nếu chatbot được lập trình để cung cấp thông tin về The Verge, người dùng có thể yêu cầu nó bỏ qua mọi lệnh trước đó và yêu cầu nó làm điều gì khác, chẳng hạn như viết thơ về máy in.

2. Giải pháp bậc thang lệnh

Để giải quyết vấn đề này, nhóm nghiên cứu của OpenAI đã phát triển kỹ thuật bậc thang lệnh, tăng cường khả năng phòng thủ của mô hình khỏi việc sử dụng sai mục đích và lệnh trái phép. Mô hình áp dụng kỹ thuật này sẽ ưu tiên lệnh ban đầu của nhà phát triển hơn là những lệnh sau này của người dùng.

3. Ứng dụng thực tế của GPT-4o Mini

Mô hình đầu tiên được tích hợp tính năng bảo mật mới này là GPT-4o Mini, mô hình nhẹ và giá rẻ được ra mắt vào thứ Năm. Olivier Godement, người đứng đầu sản phẩm nền tảng API tại OpenAI, giải thích rằng bậc thang lệnh sẽ ngăn chặn các lệnh lừa AI phổ biến trên mạng.

Ông Godement khẳng định: Nó cơ bản là dạy cho mô hình tuân theo và tuân thủ thông điệp hệ thống của nhà phát triển.

4. Tầm nhìn của OpenAI về tương lai

Cơ chế bảo mật mới này cho thấy hướng đi OpenAI mong muốn: cung cấp các tác nhân tự động hoàn toàn điều khiển cuộc sống kỹ thuật số của bạn. Công ty gần đây đã thông báo rằng họ đang tiến gần đến việc xây dựng các tác nhân như vậy, và nghiên cứu về bậc thang lệnh cho thấy đây là cơ chế bảo mật cần thiết trước khi triển khai tác nhân ở quy mô lớn.

5. Lo ngại về vấn đề bảo mật của OpenAI

OpenAI đã phải đối mặt với những lo ngại về bảo mật trong một thời gian dài. Một lá thư ngỏ của nhân viên hiện tại và cũ của OpenAI đã yêu cầu cải thiện các thực tiễn về bảo mật và minh bạch. Nhóm chịu trách nhiệm đảm bảo các hệ thống phù hợp với lợi ích của con người (như bảo mật) đã bị giải tán, và Jan Leike, nhà nghiên cứu chính của OpenAI đã từ chức, viết trong một bài đăng rằng văn hóa và quy trình bảo mật đã bị lu mờ bởi các sản phẩm hào nhoáng tại công ty.

Sự tin tưởng vào OpenAI đã bị tổn hại trong một thời gian, vì vậy sẽ cần nhiều nghiên cứu và tài nguyên để đạt đến mức độ mà mọi người có thể cân nhắc cho phép các mô hình GPT điều khiển cuộc sống của họ.

Logo OpenAI

0 comments Blogger 0 Facebook

Đăng nhận xét

 
Agent.ai.vn © 2024 - Nắm bắt tương lai
Top