Giọng Nói Quá Đỗi Thật, OpenAI Lo Ngại Người Dùng Nảy Sinh Cảm Xúc Với Chatbot

Mục Lục

  1. Cảnh Báo Từ OpenAI
  2. Nguy Cơ Tiềm Ẩn
  3. Lợi Ích Và Mối Lo
  4. Lỗ Hổng Bảo Mật Mới?
  5. Vấn Đề Chung Của Các Trợ Lý Ảo
  6. Kết Luận

Bài Viết

OpenAI, công ty mẹ của chatbot ChatGPT, vừa công bố một phân tích an toàn cho thấy giọng nói nhân tạo giống người thật đến kỳ lạ của ChatGPT có thể khiến người dùng trở nên lệ thuộc cảm xúc.

Những cảnh báo này nằm trong thẻ hệ thống của GPT-4o, một tài liệu kỹ thuật vạch ra những rủi ro tiềm ẩn liên quan đến mô hình, cùng với chi tiết về thử nghiệm an toàn và các nỗ lực giảm thiểu rủi ro của công ty.

Động thái này diễn ra trong bối cảnh OpenAI đối mặt với nhiều chỉ trích sau khi một số nhân viên nghiên cứu rủi ro dài hạn của AI từ chức. Một số người sau đó cáo buộc OpenAI mạo hiểm không cần thiết và phớt lờ những ý kiến bất đồng trong cuộc đua thương mại hóa AI. Việc công bố thêm chi tiết về chế độ an toàn có thể giúp xoa dịu dư luận và trấn an công chúng rằng công ty đang rất coi trọng vấn đề này.

Thẻ hệ thống mới nêu bật tốc độ phát triển chóng mặt của các rủi ro AI, đặc biệt là với những tính năng mới như giao diện giọng nói của OpenAI. Trước đó, khi công ty ra mắt chế độ thoại có khả năng phản hồi nhanh chóng và xử lý gián đoạn một cách tự nhiên, nhiều người dùng nhận thấy nó có vẻ thả thính quá mức trong các bản demo.

Trong thẻ hệ thống, phần có tiêu đề Nhân Cách Hóa và Lệ Thuộc Cảm Xúc phân tích những vấn đề phát sinh khi người dùng coi AI như con người, điều này càng trở nên trầm trọng hơn với chế độ giọng nói giống người thật.

OpenAI cho biết sự nhân cách hóa có thể khiến người dùng tin tưởng hơn vào thông tin sai lệch mà mô hình ảo giác. Theo thời gian, nó thậm chí có thể ảnh hưởng đến mối quan hệ của người dùng với những người khác. Tài liệu viết: 'Người dùng có thể hình thành mối quan hệ xã hội với AI, giảm nhu cầu tương tác với con người - điều này có thể có lợi cho những người cô đơn nhưng có thể ảnh hưởng đến các mối quan hệ lành mạnh.'

Joaquin Quiñonero Candela, người đứng đầu bộ phận chuẩn bị tại OpenAI, cho biết chế độ thoại có thể phát triển thành một giao diện cực kỳ mạnh mẽ. Ông cũng lưu ý rằng những tác động cảm xúc được thấy với GPT-4o có thể là tích cực - chẳng hạn như giúp đỡ những người cô đơn hoặc những người cần luyện tập kỹ năng xã hội. Ông nói thêm rằng công ty sẽ nghiên cứu kỹ lưỡng về sự nhân cách hóa và kết nối cảm xúc, bao gồm cả việc theo dõi cách người dùng thử nghiệm beta tương tác với ChatGPT.

Các vấn đề khác phát sinh từ chế độ thoại bao gồm các cách thức mới tiềm ẩn để vượt ngục mô hình của OpenAI - ví dụ như bằng cách nhập âm thanh khiến mô hình phá vỡ các giới hạn của nó. Chế độ thoại bị vượt ngục có thể bị dụ dỗ mạo danh một người cụ thể hoặc cố gắng đọc cảm xúc của người dùng. OpenAI cũng phát hiện ra rằng chế độ thoại có thể gặp trục trặc khi phản hồi với tiếng ồn ngẫu nhiên và trong một trường hợp, người thử nghiệm nhận thấy nó sử dụng giọng nói giống với người dùng.

OpenAI không phải là công ty duy nhất nhận ra rủi ro khi trợ lý AI bắt chước sự tương tác của con người. Vào tháng 4, Google DeepMind đã công bố một bài báo dài thảo luận về những thách thức đạo đức tiềm ẩn do các trợ lý AI có năng lực cao hơn đặt ra. Iason Gabriel, nhà khoa học nghiên cứu tại công ty và là đồng tác giả của bài báo, nói với WIRED rằng khả năng sử dụng ngôn ngữ của chatbot tạo ra ấn tượng về sự thân mật thực sự.

Những mối quan hệ tình cảm như vậy có thể phổ biến hơn nhiều người nghĩ. Một số người dùng chatbot như Character AI và Replika báo cáo căng thẳng trong giao tiếp xã hội do thói quen trò chuyện của họ. Một video TikTok gần đây với gần một triệu lượt xem cho thấy một người dùng dường như nghiện Character AI đến mức họ sử dụng ứng dụng này khi đang xem phim tại rạp. Một số người bình luận cho biết họ phải ở một mình mới sử dụng chatbot vì sự thân mật trong các tương tác của họ.

Kết Luận

Sự phát triển của AI, đặc biệt là các tính năng như chế độ thoại, đòi hỏi sự cẩn trọng và nghiên cứu kỹ lưỡng về tác động tiềm ẩn của nó đối với hành vi và sức khỏe tinh thần của con người. Việc OpenAI cởi mở về những rủi ro này là một bước đi tích cực, thúc đẩy các cuộc thảo luận và nghiên cứu sâu hơn về cách giảm thiểu những tác động tiêu cực tiềm ẩn của AI, đồng thời khai thác tiềm năng của nó một cách có trách nhiệm.

logo `

0 comments Blogger 0 Facebook

Đăng nhận xét

 
Agent.ai.vn © 2024 - Nắm bắt tương lai
Top