Chatbot xâm nhập: Khi AI phá vỡ kết nối con người trong cộng đồng trực tuyến
Mục lục:
-
Sự xâm nhập của Chatbot: Những câu trả lời giả mạo trong các nhóm Facebook
-
Kết nối con người: Giá trị của cộng đồng trực tuyến
-
Con người giả: Khi chatbot đe dọa sự gắn kết trong các nhóm hỗ trợ
-
Giữ chatbot trong giới hạn của chúng: Vai trò của AI trong cộng đồng trực tuyến
1. Sự xâm nhập của Chatbot: Những câu trả lời giả mạo trong các nhóm Facebook
Trên một nhóm Facebook dành cho cha mẹ có con em vừa tài năng vừa khuyết tật, một câu hỏi được đặt ra: Có ai có con vừa tài năng vừa khuyết tật và có kinh nghiệm với trường công lập ở thành phố New York?. Một câu trả lời dường như hữu ích đã được đưa ra, mô tả một số đặc điểm của một trường học cụ thể, bắt đầu bằng lời giới thiệu: Tôi có một đứa con cũng là 2e, nghĩa là hai lần đặc biệt.
Trên một nhóm Facebook khác dành cho việc trao đổi đồ dùng không cần thiết gần Boston, một người dùng đang tìm kiếm những mặt hàng cụ thể đã nhận được lời đề nghị một chiếc máy ảnh Canon đã qua sử dụng và một chiếc máy điều hòa không khí di động gần như mới mà tôi không bao giờ sử dụng.
Cả hai câu trả lời này đều là giả mạo. Đứa trẻ đó không tồn tại và cũng không có máy ảnh hay máy điều hòa không khí. Câu trả lời đến từ một chatbot trí tuệ nhân tạo.
Theo trang trợ giúp của Meta, Meta AI sẽ trả lời một bài đăng trong nhóm nếu ai đó gắn thẻ nó một cách rõ ràng hoặc nếu ai đó đặt câu hỏi trong một bài đăng và không ai trả lời trong vòng một giờ. Tính năng này chưa có sẵn ở tất cả các khu vực hoặc cho tất cả các nhóm. Đối với các nhóm có sẵn tính năng này, người quản trị có thể tắt và bật nó bất cứ lúc nào.
Meta AI cũng đã được tích hợp vào các tính năng tìm kiếm trên Facebook và Instagram, và người dùng không thể tắt nó.
2. Kết nối con người: Giá trị của cộng đồng trực tuyến
Vào năm 1993, Howard Rheingold đã xuất bản cuốn sách Cộng đồng ảo: Nông trại trên biên giới điện tử về WELL, một cộng đồng trực tuyến sớm và có ý nghĩa về mặt văn hóa. Chương đầu tiên mở đầu với một câu hỏi về nuôi dạy con cái: Làm gì với một con vật bị đầy máu đang hút máu trên da đầu của em bé của chúng ta?
Rheingold đã nhận được câu trả lời từ một người có kiến thức trực tiếp về việc xử lý ve và đã giải quyết vấn đề trước khi nhận được cuộc gọi lại từ phòng khám của bác sĩ nhi khoa. Về trải nghiệm này, ông viết: Điều khiến tôi kinh ngạc không chỉ là tốc độ mà chúng tôi đã có được chính xác thông tin chúng tôi cần biết, ngay khi chúng tôi cần biết nó. Đó còn là cảm giác an toàn bên trong vô cùng to lớn khi phát hiện ra rằng những người thực sự - hầu hết là cha mẹ, một số là y tá, bác sĩ và nữ hộ sinh - luôn sẵn sàng, suốt ngày đêm, nếu bạn cần họ.
Khía cạnh người thực sự của các cộng đồng trực tuyến vẫn tiếp tục là điều quan trọng trong ngày nay. Hãy tưởng tượng lý do tại sao bạn có thể đặt câu hỏi cho một nhóm Facebook thay vì một công cụ tìm kiếm: bởi vì bạn muốn câu trả lời từ một người có kinh nghiệm thực tế hoặc bạn muốn phản hồi của con người mà câu hỏi của bạn có thể gợi ra - sự đồng cảm, phẫn nộ, chia sẻ - hoặc cả hai.
Hàng thập kỷ nghiên cứu cho thấy thành phần con người của các cộng đồng trực tuyến là điều khiến chúng trở nên có giá trị như vậy cho cả việc tìm kiếm thông tin và hỗ trợ xã hội. Ví dụ, những người cha có thể cảm thấy khó xử khi yêu cầu lời khuyên về nuôi dạy con cái đã tìm thấy một nơi ẩn náu trong các không gian trực tuyến riêng tư dành riêng cho bố.
Giới trẻ LGBTQ+ thường tham gia các cộng đồng trực tuyến để tìm kiếm các nguồn lực quan trọng một cách an toàn đồng thời giảm bớt cảm giác cô lập. Các diễn đàn hỗ trợ sức khỏe tâm thần cung cấp cho những người trẻ tuổi sự thuộc về và xác nhận ngoài lời khuyên và hỗ trợ xã hội.
3. Con người giả: Khi chatbot đe dọa sự gắn kết trong các nhóm hỗ trợ
Những lợi ích quan trọng nhất của các không gian trực tuyến này, như được mô tả bởi những người tham gia của chúng tôi, có thể bị suy yếu nghiêm trọng bởi những phản hồi đến từ chatbot thay vì con người.
Là một bệnh nhân tiểu đường type 1, tôi theo dõi một số nhóm Facebook liên quan được nhiều bậc cha mẹ mới bắt đầu điều trị cho con nhỏ mắc bệnh tiểu đường lui tới thường xuyên. Các câu hỏi thường xuyên được đặt ra: Điều này có nghĩa là gì? Tôi nên xử lý nó như thế nào? Kinh nghiệm của bạn với điều này là gì? Câu trả lời đến từ kinh nghiệm cá nhân, nhưng chúng cũng thường đi kèm với lòng trắc ẩn: Điều này rất khó. Bạn đang làm hết sức mình. Và tất nhiên: Chúng ta đã từng trải qua điều đó.
Một phản hồi từ một chatbot tuyên bố nói từ kinh nghiệm thực tế của việc chăm sóc một đứa trẻ bị tiểu đường, thể hiện sự đồng cảm, sẽ không chỉ không phù hợp mà còn gần như tàn nhẫn.
Tuy nhiên, điều đó hoàn toàn có lý do khi những phản hồi này là những gì mà một chatbot sẽ cung cấp. Các mô hình ngôn ngữ lớn, một cách đơn giản, hoạt động giống như tự động hoàn thành hơn là công cụ tìm kiếm.
Đối với một mô hình được đào tạo trên hàng triệu và hàng triệu bài đăng và bình luận trong các nhóm Facebook, câu trả lời tự động hoàn thành cho một câu hỏi trong một cộng đồng hỗ trợ chắc chắn là một câu trả lời gợi lên kinh nghiệm cá nhân và thể hiện sự đồng cảm - giống như câu trả lời tự động hoàn thành trong một nhóm Facebook Mua không cần có thể là cung cấp cho ai đó một chiếc máy ảnh đã qua sử dụng.
4. Giữ chatbot trong giới hạn của chúng: Vai trò của AI trong cộng đồng trực tuyến
Điều này không có nghĩa là chatbot không hữu ích cho bất cứ điều gì - chúng thậm chí có thể rất hữu ích trong một số cộng đồng trực tuyến, trong một số ngữ cảnh. Vấn đề là, trong bối cảnh hiện tại của sự bùng nổ AI thế hệ mới, có xu hướng cho rằng chatbot có thể và nên làm mọi thứ.
Có rất nhiều nhược điểm khi sử dụng các mô hình ngôn ngữ lớn như hệ thống truy xuất thông tin, và những nhược điểm này chỉ ra các ngữ cảnh không phù hợp để sử dụng chúng. Một nhược điểm là khi thông tin không chính xác có thể gây nguy hiểm: ví dụ như đường dây trợ giúp rối loạn ăn uống hoặc tư vấn pháp lý cho doanh nghiệp nhỏ.
Nghiên cứu đang chỉ ra những cân nhắc quan trọng về cách thức và thời điểm thiết kế và triển khai chatbot. Ví dụ, một bài báo được xuất bản gần đây tại một hội nghị tương tác giữa người và máy tính lớn đã phát hiện ra rằng mặc dù các cá nhân LGBTQ+ thiếu hỗ trợ xã hội đôi khi chuyển sang chatbot để được giúp đỡ với nhu cầu sức khỏe tâm thần, nhưng những chatbot đó thường không nắm bắt được sự tinh tế của những thách thức cụ thể của LGBTQ+.
Một nghiên cứu khác đã phát hiện ra rằng mặc dù một nhóm những người tham gia mắc chứng tự kỷ thấy giá trị trong việc tương tác với chatbot để được tư vấn về giao tiếp xã hội, nhưng chatbot đó cũng đưa ra những lời khuyên đáng ngờ. Và một nghiên cứu khác đã phát hiện ra rằng mặc dù chatbot hữu ích như một công cụ tư vấn trước khi thăm khám trong bối cảnh sức khỏe, nhưng bệnh nhân đôi khi thấy những biểu hiện của sự đồng cảm là không chân thành hoặc gây khó chịu.
Sự phát triển và triển khai AI có trách nhiệm không chỉ có nghĩa là kiểm tra các vấn đề như thiên vị và thông tin sai lệch, mà còn dành thời gian để hiểu các ngữ cảnh nào AI phù hợp và mong muốn đối với con người sẽ tương tác với chúng.
Hiện tại, nhiều công ty đang sử dụng AI thế hệ mới như một cái búa, và kết quả là, mọi thứ đều giống như một cái đinh. Nhiều ngữ cảnh, chẳng hạn như các cộng đồng hỗ trợ trực tuyến, tốt nhất nên để cho con người.

0 comments Blogger 0 Facebook
Đăng nhận xét