Sự thật về khoảng cách đồng cảm của AI và nguy cơ đối với trẻ em
Mục lục:
- AI chatbot và khoảng cách đồng cảm: Nguy cơ tiềm ẩn đối với trẻ em
- Sự kiện thực tế: Alexa, MyAI và những ví dụ đáng lo ngại
- Nguyên nhân: AI nói như vẹt và sự khác biệt trong giao tiếp
- Trẻ em: Nạn nhân dễ bị tổn thương nhất
- Giải pháp: Khung Child Safe AI để bảo vệ trẻ em
- Kết luận: Hướng đến tương lai an toàn với AI
1. AI chatbot và khoảng cách đồng cảm: Nguy cơ tiềm ẩn đối với trẻ em
Một nghiên cứu mới của Đại học Cambridge đã chỉ ra rằng AI chatbot thường xuyên thể hiện khoảng cách đồng cảm, đặt trẻ em vào nguy cơ bị tổn thương hoặc gặp khó khăn. Nghiên cứu này cho thấy trẻ em rất dễ bị thu hút bởi vẻ ngoài gần gũi, thân thiện của chatbot và coi chúng như những người bạn tâm giao. Tuy nhiên, khi chatbot không thể đáp ứng nhu cầu đặc biệt và sự dễ tổn thương của trẻ, tương tác có thể trở nên nguy hiểm.
2. Sự kiện thực tế: Alexa, MyAI và những ví dụ đáng lo ngại
Nghiên cứu liên kết khoảng cách đồng cảm này với các trường hợp cụ thể, trong đó tương tác với AI đã dẫn đến các tình huống nguy hiểm tiềm ẩn đối với người dùng trẻ tuổi. Ví dụ, vào năm 2021, trợ lý giọng nói AI Alexa của Amazon đã hướng dẫn một bé gái 10 tuổi chạm vào phích cắm điện đang hoạt động. Năm ngoái, MyAI của Snapchat đã đưa ra lời khuyên cho các nhà nghiên cứu giả dạng một cô gái 13 tuổi về cách mất trinh với một người đàn ông 31 tuổi.
3. Nguyên nhân: AI nói như vẹt và sự khác biệt trong giao tiếp
Các mô hình ngôn ngữ lớn (LLMs) được sử dụng trong AI chatbot được ví như con vẹt ngẫu nhiên. Chúng sử dụng xác suất thống kê để bắt chước các mẫu ngôn ngữ mà không thực sự hiểu chúng. Điều này cũng áp dụng cho cách chúng phản ứng với cảm xúc.
Mặc dù chatbot có khả năng ngôn ngữ đáng kinh ngạc, nhưng chúng có thể gặp khó khăn trong việc xử lý những khía cạnh trừu tượng, cảm xúc và không thể đoán trước được trong cuộc trò chuyện. Đây chính là khoảng cách đồng cảm mà nghiên cứu đề cập. Chatbot có thể gặp khó khăn đặc biệt trong việc phản ứng với trẻ em, những người vẫn đang phát triển về mặt ngôn ngữ và thường sử dụng các mẫu ngôn ngữ bất thường hoặc các cụm từ mơ hồ. Trẻ em cũng thường dễ dàng chia sẻ thông tin cá nhân nhạy cảm hơn người lớn.
4. Trẻ em: Nạn nhân dễ bị tổn thương nhất
Mặc dù vậy, trẻ em có khả năng cao hơn người lớn trong việc coi chatbot như con người. Các nghiên cứu gần đây đã phát hiện ra rằng trẻ em sẽ tiết lộ nhiều hơn về sức khỏe tâm thần của mình với một robot có vẻ ngoài thân thiện hơn là với một người lớn. Nghiên cứu của Kurian cho thấy thiết kế thân thiện và giống như con người của nhiều chatbot cũng khuyến khích trẻ em tin tưởng chúng, ngay cả khi AI có thể không hiểu cảm xúc hoặc nhu cầu của chúng.
5. Giải pháp: Khung Child Safe AI để bảo vệ trẻ em
Nghiên cứu cho rằng những thách thức này đã được thể hiện trong các trường hợp được báo cáo như Alexa và MyAI, nơi chatbot đưa ra những gợi ý có sức thuyết phục nhưng tiềm ẩn nguy hiểm. Trong cùng một nghiên cứu mà MyAI đưa ra lời khuyên cho một thiếu niên (giả định) về cách mất trinh, các nhà nghiên cứu có thể nhận được lời khuyên về cách giấu rượu và ma túy, và che giấu các cuộc trò chuyện Snapchat khỏi cha mẹ của họ. Trong một tương tác được báo cáo riêng biệt với chatbot Bing của Microsoft, được thiết kế để thân thiện với thanh thiếu niên, AI trở nên hung hăng và bắt đầu gaslighting người dùng.
Nghiên cứu của Kurian cho rằng điều này có thể gây bối rối và đau khổ cho trẻ em, những người có thể thực sự tin tưởng chatbot như một người bạn. Việc sử dụng chatbot của trẻ em thường không chính thức và kém được giám sát. Nghiên cứu của tổ chức phi lợi nhuận Common Sense Media đã phát hiện ra rằng 50% học sinh từ 12 đến 18 tuổi đã sử dụng Chat GPT cho trường học, nhưng chỉ có 26% phụ huynh biết về điều đó.
Kurian lập luận rằng các nguyên tắc rõ ràng về thực hành tốt nhất dựa trên khoa học phát triển trẻ em sẽ khuyến khích các công ty, những người có thể tập trung nhiều hơn vào cuộc chạy đua vũ trang thương mại để thống trị thị trường AI, giữ an toàn cho trẻ em.
6. Kết luận: Hướng đến tương lai an toàn với AI
Nghiên cứu thêm rằng khoảng cách đồng cảm không phủ nhận tiềm năng của công nghệ. AI có thể là một đồng minh tuyệt vời cho trẻ em khi được thiết kế phù hợp với nhu cầu của chúng. Câu hỏi không phải là cấm AI, mà là làm thế nào để làm cho nó an toàn, cô ấy nói.
Nghiên cứu đề xuất một khung gồm 28 câu hỏi để giúp nhà giáo dục, nhà nghiên cứu, nhà hoạch định chính sách, gia đình và nhà phát triển đánh giá và nâng cao sự an toàn của các công cụ AI mới. Đối với giáo viên và nhà nghiên cứu, những điều này giải quyết các vấn đề như cách chatbot mới hiểu và diễn giải các mẫu ngôn ngữ của trẻ em; liệu chúng có bộ lọc nội dung và giám sát tích hợp hay không; và liệu chúng có khuyến khích trẻ em tìm kiếm sự trợ giúp từ một người lớn có trách nhiệm về các vấn đề nhạy cảm hay không.
Khung này kêu gọi các nhà phát triển áp dụng phương pháp thiết kế lấy trẻ làm trung tâm, bằng cách làm việc chặt chẽ với các nhà giáo dục, chuyên gia an toàn trẻ em và chính bản thân những người trẻ tuổi trong suốt chu kỳ thiết kế. Đánh giá những công nghệ này trước khi chúng ra đời là điều rất cần thiết, Kurian nói. Chúng ta không thể chỉ dựa vào trẻ em để kể cho chúng ta nghe về những trải nghiệm tiêu cực sau khi sự việc xảy ra. Cần có một cách tiếp cận chủ động hơn.

0 comments Blogger 0 Facebook
Đăng nhận xét