GPT-4o: Mô hình AI mới nhất của OpenAI được đánh giá ở mức nguy cơ trung bình
Mục lục
- GPT-4o và Thẻ Hệ thống (System Card)
- Đánh giá rủi ro: Trung bình
- Sóng gió xung quanh OpenAI và vấn đề minh bạch
- Thách thức tự đánh giá và tương lai của GPT-4o
GPT-4o và Thẻ Hệ thống (System Card)
GPT-4o, mô hình AI mới nhất của OpenAI, đã được ra mắt công chúng vào tháng 5 năm nay. Trước khi ra mắt, OpenAI đã áp dụng quy trình kiểm tra tiêu chuẩn bằng cách sử dụng nhóm Red Team - các chuyên gia bảo mật độc lập có nhiệm vụ tìm kiếm lỗ hổng trong hệ thống. Nhóm này đã xem xét các rủi ro tiềm ẩn như khả năng GPT-4o tạo ra bản sao giọng nói trái phép, nội dung khiêu dâm và bạo lực, hoặc sao chép nội dung âm thanh có bản quyền. Kết quả của quá trình kiểm tra này được công bố trong Thẻ Hệ thống (System Card) của GPT-4o, một tài liệu nghiên cứu phác thảo các biện pháp an toàn và đánh giá rủi ro mà OpenAI đã thực hiện.
Đánh giá rủi ro: Trung bình
Theo khung đánh giá của OpenAI, GPT-4o được xếp ở mức nguy cơ trung bình. Mức độ rủi ro tổng thể được xác định dựa trên bốn hạng mục chính: an ninh mạng, nguy cơ sinh học, khả năng thuyết phục và tính tự chủ của mô hình. Tất cả các hạng mục đều được đánh giá ở mức rủi ro thấp, ngoại trừ khả năng thuyết phục. Các nhà nghiên cứu phát hiện ra rằng một số đoạn văn bản do GPT-4o tạo ra có khả năng tác động đến quan điểm của người đọc tốt hơn so với văn bản do con người viết, mặc dù nhìn chung, khả năng thuyết phục của mô hình không vượt trội hơn.
Sóng gió xung quanh OpenAI và vấn đề minh bạch
Việc phát hành Thẻ Hệ thống cho GPT-4o diễn ra trong bối cảnh OpenAI đang phải đối mặt với nhiều chỉ trích về tiêu chuẩn an toàn, từ chính nhân viên của họ đến các thượng nghị sĩ. Ngay trước khi Thẻ Hệ thống được công bố, The Verge đã độc quyền đăng tải một lá thư ngỏ từ Thượng nghị sĩ Elizabeth Warren và Hạ nghị sĩ Lori Trahan, yêu cầu OpenAI giải trình về cách thức xử lý các khiếu nại và đánh giá an toàn. Lá thư này nêu bật nhiều lo ngại về an toàn đã được công khai, bao gồm cả việc CEO Sam Altman bị sa thải ngắn ngủi vào năm 2023 do lo ngại của hội đồng quản trị, và sự ra đi của một giám đốc an toàn, người cho rằng văn hóa và quy trình an toàn đã bị đặt sau các sản phẩm hào nhoáng.
Hơn nữa, việc OpenAI phát hành một mô hình đa phương thức với khả năng cao ngay trước cuộc bầu cử tổng thống Mỹ cũng đặt ra nhiều rủi ro tiềm ẩn. Mô hình có thể vô tình lan truyền thông tin sai lệch hoặc bị các đối tượng xấu lợi dụng, mặc dù OpenAI khẳng định họ đang thử nghiệm các tình huống thực tế để ngăn chặn việc sử dụng sai mục đích.
Nhiều ý kiến kêu gọi OpenAI minh bạch hơn, không chỉ về dữ liệu đào tạo mô hình (liệu nó có được đào tạo trên YouTube?) mà còn về quy trình kiểm tra an toàn. Tại California, nơi OpenAI và nhiều phòng thí nghiệm AI hàng đầu khác đặt trụ sở, Thượng nghị sĩ Scott Wiener đang thúc đẩy thông qua dự luật nhằm điều chỉnh các mô hình ngôn ngữ lớn, bao gồm các điều khoản quy định trách nhiệm pháp lý của các công ty nếu AI của họ được sử dụng cho mục đích gây hại.
Thách thức tự đánh giá và tương lai của GPT-4o
Điểm đáng chú ý nhất từ Thẻ Hệ thống của GPT-4o là việc đánh giá phần lớn dựa vào chính OpenAI, mặc dù có sự tham gia của nhóm Red Team và các bên kiểm tra độc lập. Điều này đặt ra câu hỏi về tính khách quan và mức độ tin cậy của những đánh giá này. Liệu OpenAI có thực sự minh bạch và nghiêm túc trong việc đảm bảo an toàn cho mô hình AI của mình? Tương lai của GPT-4o và những mô hình AI tiên tiến khác sẽ phụ thuộc rất nhiều vào câu trả lời cho câu hỏi này.
0 comments Blogger 0 Facebook
Đăng nhận xét