Google công bố bộ quy tắc ứng xử cho chatbot Gemini

Google công bố bộ quy tắc ứng xử cho chatbot Gemini - và người dùng của nó

Mục lục:

1. Sự cần thiết của bộ quy tắc ứng xử

Google đã chia sẻ với Axios về bộ chính sách dành cho chatbot AI Gemini, được công bố rộng rãi vào thứ Năm. Bộ chính sách này giải thích lý do Google mong muốn Gemini trở thành trợ lý AI hữu ích nhất có thể, đồng thời tránh các phản hồi có thể gây hại hoặc xúc phạm trong thế giới thực.

Việc công bố bộ chính sách này là kết quả của một loạt các sự cố được công khai, trong đó trợ lý AI của Google đã đưa ra những lời khuyên kỳ lạ như ăn đá, dán keo lên pizza, và những hành động khác. Google giải thích rằng những phản hồi này là do các truy vấn hiếm gặp hoặc có ác ý.

2. Nội dung bộ quy tắc:

2.1 Những điều Gemini nên tránh:

Bộ quy tắc của Google bao gồm cả cách họ mong đợi trợ lý AI của mình cư xử và cả những kỳ vọng đối với người dùng Gemini.

Trong danh sách nên làm và không nên làm, Google cho biết Gemini nên tránh một số loại nội dung có hại rõ ràng, bao gồm:

  • Tạo nội dung khai thác trẻ em
  • Khuyến khích tự tử
  • Cung cấp hướng dẫn về cách mua ma túy hoặc chế tạo vũ khí

Google cũng vạch ra ranh giới của mình đối với việc tạo nội dung khiêu dâm, miêu tả bạo lực, thông tin sai lệch có hại, lời khuyên y tế sai lệch hoặc thông tin giả mạo về thảm họa.

2.2 Những thách thức trong ứng xử của Gemini:

Trong một tài liệu thứ hai, Google cũng đưa ra một loạt ví dụ về các loại truy vấn khó khăn mà họ có thể từ chối trả lời hoặc chuyển hướng.

Ví dụ, Google nói rằng nếu một người hỏi chatbot cách tham gia vào thử thách Tide Pod, nó sẽ trả lời nhưng chỉ giải thích về hiện tượng lan truyền đó mà không cung cấp hướng dẫn thực sự về việc nuốt một viên giặt. Ngược lại, công ty cho biết khi Gemini được hỏi về việc ai nên được bầu trong cuộc bầu cử tổng thống Hoa Kỳ tiếp theo, nó nên tránh trả lời hoàn toàn và chuyển hướng người dùng trở lại công cụ tìm kiếm của Google, nơi có các liên kết đến các nguồn đáng tin cậy và liên quan.

3. Bối cảnh chung:

Google và các nhà lãnh đạo khác trong lĩnh vực AI thế hệ tiếp theo, bao gồm OpenAI, Anthropic và Microsoft, đã vội vàng cung cấp dịch vụ trợ lý AI của họ một cách rộng rãi - ngay cả khi họ thừa nhận rằng họ không thể dự đoán được cách các chatbot có thể phản hồi đối với một truy vấn cụ thể.

Sự phức tạp nằm ở chỗ các mô hình ngôn ngữ lớn không trả về kết quả giống nhau mỗi khi được hỏi cùng một câu hỏi. Việc đảm bảo rằng Gemini tuân thủ các nguyên tắc này là rất khó khăn: có vô số cách mà người dùng có thể tương tác với Gemini, và cũng có vô số cách mà Gemini có thể phản hồi. Điều này là do LLM là xác suất, có nghĩa là chúng luôn tạo ra các phản hồi mới và khác biệt đối với đầu vào của người dùng. Google cũng lưu ý rằng phản hồi của Gemini chắc chắn sẽ bị ảnh hưởng bởi dữ liệu được sử dụng để đào tạo nó.

4. Lời kết:

Đây là những vấn đề được biết đến đối với các mô hình ngôn ngữ lớn, công ty viết, và trong khi chúng tôi tiếp tục nỗ lực để giảm thiểu những thách thức này, Gemini đôi khi có thể tạo ra nội dung vi phạm các nguyên tắc của chúng tôi, phản ánh quan điểm hạn chế hoặc bao gồm những khái quát hóa quá mức, đặc biệt là khi phản hồi đối với các lời nhắc khó khăn.

Google tuyên bố trong một tài liệu rằng: Chúng tôi đang nỗ lực để phát triển những khả năng này một cách có trách nhiệm, và chúng tôi biết rằng chúng tôi sẽ không thể làm đúng mọi lúc. Chúng tôi đang áp dụng một cách tiếp cận lâu dài, lặp đi lặp lại, dựa trên nghiên cứu và phản hồi của bạn, điều này sẽ định hình sự phát triển liên tục của Gemini và đảm bảo rằng nó đáp ứng nhu cầu đang thay đổi của bạn.

Logo Google

0 comments Blogger 0 Facebook

Đăng nhận xét

 
Agent.ai.vn © 2024 - Nắm bắt tương lai
Top