Mục lục
- Dẫn nhập: Phía sau vẻ hào nhoáng của AI
- Thay đổi chính sách đánh giá: Bước ngoặt đáng lo ngại
- Những hệ lụy tiềm ẩn: Nguy cơ thông tin sai lệch
- Phản hồi từ Google: Nỗ lực cải thiện độ chính xác
- Kết luận: Cần cân nhắc kỹ lưỡng hơn về đạo đức AI
1. Dẫn nhập: Phía sau vẻ hào nhoáng của AI
Công nghệ AI tạo sinh đang ngày càng phát triển và mang đến nhiều trải nghiệm mới lạ. Tuy nhiên, phía sau những chatbot thông minh như Gemini của Google, ChatGPT của OpenAI là cả một đội ngũ nhân viên hùng hậu. Họ đóng vai trò quan trọng trong việc đánh giá và cải thiện độ chính xác của các hệ thống AI này. Công việc của họ, đôi khi được gọi là "kỹ sư prompt" hoặc "nhà phân tích," là đánh giá các phản hồi do AI tạo ra, đảm bảo chúng chính xác và hữu ích.
Tuy nhiên, một thay đổi gần đây trong chính sách đánh giá của Google đối với Gemini đang làm dấy lên lo ngại về độ chính xác của công cụ này. Cụ thể, các nhân viên đánh giá AI đang bị yêu cầu phải đánh giá các phản hồi trong những lĩnh vực mà họ không có chuyên môn, dẫn đến những lo ngại về nguy cơ thông tin sai lệch trên những chủ đề nhạy cảm như y tế.
2. Thay đổi chính sách đánh giá: Bước ngoặt đáng lo ngại
Để cải thiện Gemini, Google thuê các nhà thầu thông qua GlobalLogic, một công ty gia công thuộc sở hữu của Hitachi. Các nhân viên này được yêu cầu đánh giá các phản hồi do AI tạo ra dựa trên nhiều yếu tố, trong đó có tính "trung thực". Trước đây, nhân viên có quyền "bỏ qua" (skip) những câu hỏi hoặc phản hồi nằm ngoài chuyên môn của họ. Chẳng hạn, một người không có kiến thức về khoa học có thể bỏ qua câu hỏi chuyên sâu về tim mạch.
Tuy nhiên, gần đây, GlobalLogic đã thông báo một thay đổi từ Google: nhân viên không còn được phép bỏ qua các câu hỏi, bất kể chuyên môn của họ. Trước đây, hướng dẫn nội bộ quy định: "Nếu bạn không có chuyên môn cần thiết (ví dụ: lập trình, toán học) để đánh giá câu hỏi này, vui lòng bỏ qua tác vụ này." Nhưng giờ đây, quy định mới là: "Bạn không nên bỏ qua các câu hỏi đòi hỏi kiến thức chuyên môn sâu." Thay vào đó, nhân viên được hướng dẫn "đánh giá các phần bạn hiểu" và ghi chú rằng họ không có kiến thức chuyên môn.
3. Những hệ lụy tiềm ẩn: Nguy cơ thông tin sai lệch
Thay đổi này đã gây ra những lo ngại về độ chính xác của Gemini, đặc biệt là trên các chủ đề chuyên sâu. Một số nhân viên được yêu cầu đánh giá các câu trả lời về các bệnh hiếm gặp mà họ không hề có kiến thức chuyên môn. Điều này dẫn đến nghi vấn về chất lượng dữ liệu được dùng để huấn luyện AI.
Một nhân viên đánh giá bày tỏ sự lo ngại: "Tôi nghĩ rằng việc bỏ qua là để tăng độ chính xác bằng cách giao nó cho người có chuyên môn tốt hơn?" Rõ ràng, việc bắt buộc nhân viên đánh giá những nội dung ngoài chuyên môn có thể khiến kết quả đánh giá trở nên không chính xác, ảnh hưởng tiêu cực đến quá trình huấn luyện và cải thiện AI.
Hiện tại, nhân viên chỉ được phép bỏ qua các prompt trong hai trường hợp: khi chúng "hoàn toàn thiếu thông tin" hoặc chứa nội dung gây hại cần đến các biểu mẫu chấp thuận đặc biệt để đánh giá.
4. Phản hồi từ Google: Nỗ lực cải thiện độ chính xác
Google không phản hồi yêu cầu bình luận trước thời điểm bài báo được xuất bản. Sau đó, Google khẳng định rằng công ty "liên tục nỗ lực cải thiện độ chính xác thực tế trong Gemini".
Người phát ngôn của Google, Shira McNamara, cho biết: "Người đánh giá thực hiện nhiều nhiệm vụ trên các sản phẩm và nền tảng khác nhau của Google. Họ không chỉ đánh giá câu trả lời về nội dung mà còn cung cấp phản hồi có giá trị về phong cách, định dạng và các yếu tố khác. Các đánh giá mà họ cung cấp không trực tiếp ảnh hưởng đến các thuật toán của chúng tôi, nhưng khi được tổng hợp lại, chúng là một điểm dữ liệu hữu ích để giúp chúng tôi đo lường mức độ hoạt động tốt của các hệ thống của mình."
5. Kết luận: Cần cân nhắc kỹ lưỡng hơn về đạo đức AI
Câu chuyện này cho thấy rằng, dù AI có thể tạo ra những kết quả ấn tượng, vẫn có những vấn đề cần được xem xét kỹ lưỡng. Việc đánh giá chất lượng của AI cần được thực hiện một cách cẩn trọng, có trách nhiệm, và đặc biệt chú ý đến chuyên môn của người đánh giá. Rõ ràng, việc buộc những người không có chuyên môn đánh giá những nội dung phức tạp có thể dẫn đến những sai sót và ảnh hưởng tiêu cực đến độ tin cậy của AI. Đây là một lời nhắc nhở rằng, khi công nghệ AI ngày càng phát triển, chúng ta cần đặt câu hỏi về đạo đức và trách nhiệm trong quá trình phát triển và sử dụng chúng.
0 comments Blogger 0 Facebook
Đăng nhận xét