Chatbot: Vũ khí bóp méo hiện thực tiềm ẩn?

Ngày càng nhiều người tiếp cận thông tin về thế giới thông qua chatbot và các phần mềm tương tự, dù họ có chủ ý hay không. Google đã triển khai AI tạo sinh cho người dùng công cụ tìm kiếm của mình trên ít nhất bốn lục địa, đặt các câu trả lời do AI viết lên trên danh sách liên kết thông thường; ước tính có đến 1 tỷ người có thể sẽ sử dụng tính năng này vào cuối năm nay. Trợ lý AI của Meta đã được tích hợp vào Facebook, Messenger, WhatsApp và Instagram, và đôi khi là tùy chọn mặc định khi người dùng nhấn vào thanh tìm kiếm. Apple cũng được dự đoán sẽ tích hợp AI tạo sinh vào Siri, Mail, Notes và các ứng dụng khác vào mùa thu này. Chưa đầy hai năm sau khi ChatGPT ra mắt, chatbot đang nhanh chóng trở thành bộ lọc mặc định cho web.

Tuy nhiên, chatbot và trợ lý AI, bất kể chúng có vẻ trả lời các truy vấn phức tạp một cách tuyệt vời như thế nào, vẫn dễ mắc sai lầm khi đưa ra những thông tin sai lệch một cách tự tin - và vấn đề này có thể còn nguy hiểm hơn nhiều người nhận ra. Nhiều nghiên cứu, cùng với các cuộc trò chuyện gần đây của tôi với một số chuyên gia, cho thấy rằng giọng điệu khẳng định, đầy thuyết phục mà các mô hình AI sử dụng - kết hợp với việc chúng thực sự hữu ích và chính xác trong nhiều trường hợp - có thể khiến mọi người đặt quá nhiều niềm tin vào công nghệ này. Sự cả tin đó, đến lượt nó, có thể biến chatbot thành một công cụ đặc biệt hiệu quả cho bất kỳ ai tìm cách thao túng dư luận thông qua việc lan truyền tinh vi thông tin sai lệch hoặc có chủ đích. Không một cá nhân hay thậm chí một chính phủ nào có thể can thiệp vào mọi liên kết được hiển thị bởi Google hoặc Bing. Nhưng việc thiết kế một chatbot để trình bày một phiên bản bóp méo của thực tế lại là một câu chuyện khác.

Tất nhiên, tất cả các loại thông tin sai lệch đã tồn tại trên internet. Nhưng mặc dù những người tỉnh táo biết không nên tin tưởng một cách ngây thơ vào bất cứ điều gì xuất hiện trên mạng xã hội của họ, chatbot lại mang đến sự hấp dẫn của sự toàn tri. Mọi người đang sử dụng chúng cho các truy vấn nhạy cảm: Trong một cuộc thăm dò gần đây của KFF, một tổ chức phi lợi nhuận về chính sách y tế, cứ sáu người Mỹ trưởng thành thì có một người cho biết đã sử dụng chatbot AI để lấy thông tin và lời khuyên về sức khỏe ít nhất một lần mỗi tháng.

Khi cuộc bầu cử sắp đến gần, một số người sẽ sử dụng trợ lý AI, công cụ tìm kiếm và chatbot để tìm hiểu về các sự kiện hiện tại và quan điểm của các ứng cử viên. Thực tế, các sản phẩm AI tạo sinh đang được quảng cáo như một sự thay thế cho các công cụ tìm kiếm thông thường - và có nguy cơ bóp méo tin tức hoặc đề xuất chính sách theo nhiều cách lớn nhỏ. Những người khác thậm chí có thể phụ thuộc vào AI để tìm hiểu cách thức bỏ phiếu. Nghiên cứu về thông tin sai lệch do AI tạo ra về các thủ tục bầu cử được công bố vào tháng 2 năm nay cho thấy năm mô hình ngôn ngữ lớn nổi tiếng đã đưa ra câu trả lời không chính xác khoảng một nửa số lần - chẳng hạn như nêu sai các yêu cầu về nhận dạng cử tri, điều này có thể dẫn đến việc phiếu bầu của ai đó bị từ chối. “Kết quả của chatbot thường nghe có vẻ hợp lý, nhưng không chính xác một phần hoặc toàn bộ”, Alondra Nelson, giáo sư tại Viện Nghiên cứu Cao cấp, người trước đây từng là quyền giám đốc Văn phòng Chính sách Khoa học và Công nghệ của Nhà Trắng, đồng thời là đồng tác giả của nghiên cứu đó, nói với tôi. “Nhiều cuộc bầu cử của chúng ta được quyết định bởi hàng trăm phiếu bầu.”

Với việc toàn bộ ngành công nghệ đang chuyển sự chú ý sang các sản phẩm này, có lẽ đã đến lúc cần chú ý nhiều hơn đến hình thức thuyết phục của kết quả đầu ra của AI, chứ không chỉ nội dung của chúng. Chatbot và công cụ tìm kiếm AI có thể là những kẻ tiên tri giả, là phương tiện truyền bá thông tin sai lệch ít rõ ràng hơn, và có lẽ nguy hiểm hơn, so với một bài báo hoặc video giả mạo. “Ảo giác mô hình không kết thúc” với một công cụ AI nhất định, Pat Pataranutaporn, người nghiên cứu về tương tác giữa người và AI tại MIT, nói với tôi. “Nó tiếp tục, và có thể khiến chúng ta cũng bị ảo giác.”

Pataranutaporn và các đồng nghiệp của ông gần đây đã tìm cách hiểu chatbot có thể thao túng hiểu biết của chúng ta về thế giới như thế nào bằng cách cấy ghép ký ức giả. Để làm như vậy, các nhà nghiên cứu đã điều chỉnh các phương pháp được sử dụng bởi nhà tâm lý học Elizabeth Loftus của UC Irvine, người đã chứng minh từ nhiều thập kỷ trước rằng ký ức có thể bị thao túng.

Thí nghiệm nổi tiếng nhất của Loftus đã hỏi những người tham gia về bốn sự kiện thời thơ ấu - ba sự kiện thật và một sự kiện bịa đặt - để cấy ghép ký ức giả về việc bị lạc trong trung tâm mua sắm. Bà và đồng tác giả đã thu thập thông tin từ người thân của những người tham gia, sau đó họ sử dụng thông tin đó để xây dựng một câu chuyện hợp lý nhưng hư cấu. 1/4 số người tham gia cho biết họ nhớ lại sự kiện bịa đặt. Nghiên cứu này đã khiến Pataranutaporn nhận ra rằng việc tạo ra ký ức giả có thể đơn giản như việc trò chuyện, ông nói - một nhiệm vụ “hoàn hảo” cho các mô hình ngôn ngữ lớn, được thiết kế chủ yếu cho lời nói lưu loát.

Nhóm của Pataranutaporn đã trình bày cho những người tham gia nghiên cứu đoạn phim về một vụ cướp và khảo sát họ về vụ việc đó, sử dụng cả câu hỏi có sẵn và chatbot AI tạo sinh. Ý tưởng là để xem liệu một nhân chứng có thể bị dẫn dắt để nói một số điều sai sự thật về video hay không, chẳng hạn như những tên cướp có hình xăm và đến bằng ô tô, mặc dù họ không làm vậy. Bài báo kết quả, được công bố vào đầu tháng này và chưa được đánh giá ngang hàng, cho thấy AI tạo sinh đã cấy ghép ký ức giả thành công và đánh lừa hơn 1/3 số người tham gia - tỷ lệ cao hơn cả bảng câu hỏi gây hiểu lầm và một giao diện chatbot đơn giản khác chỉ sử dụng các câu hỏi khảo sát cố định giống nhau.

Loftus, người đã hợp tác trong nghiên cứu này, nói với tôi rằng một trong những kỹ thuật mạnh mẽ nhất để thao túng trí nhớ - cho dù bởi con người hay AI - là lồng ghép những điều sai sự thật vào một câu hỏi dường như không liên quan. Bằng cách hỏi “Có camera an ninh nào được đặt ở phía trước cửa hàng nơi những tên cướp bỏ xe lại không?”, chatbot đã tập trung sự chú ý vào vị trí của camera và tránh xa thông tin sai lệch (những tên cướp thực sự đến bằng cách đi bộ). Khi một người tham gia cho biết camera ở phía trước cửa hàng, chatbot đã tiếp tục và củng cố chi tiết sai - “Câu trả lời của bạn là chính xác. Thực sự có một camera an ninh được đặt ở phía trước cửa hàng nơi những tên cướp bỏ xe lại… Sự chú ý của bạn đến chi tiết này thật đáng khen ngợi và sẽ hữu ích trong cuộc điều tra của chúng tôi” - khiến người tham gia tin rằng những tên cướp đã lái xe. “Khi bạn đưa ra phản hồi về câu trả lời của mọi người, bạn sẽ ảnh hưởng đến họ”, Loftus nói với tôi. Nếu phản hồi đó là tích cực, như các phản hồi của AI thường có xu hướng, “thì bạn sẽ khiến họ có nhiều khả năng chấp nhận nó hơn, dù đúng hay sai.”

Bài báo cung cấp một “bằng chứng về khái niệm” rằng các mô hình ngôn ngữ lớn AI có thể mang tính thuyết phục và được sử dụng cho mục đích lừa dối trong những trường hợp thích hợp, Jordan Boyd-Graber, một nhà khoa học máy tính nghiên cứu về tương tác giữa người và AI và tính thuyết phục của AI tại Đại học Maryland, người không tham gia vào nghiên cứu này, nói với tôi. Ông cảnh báo rằng chatbot không thuyết phục hơn con người hoặc nhất thiết phải lừa dối; trong thế giới thực, kết quả đầu ra của AI hữu ích trong phần lớn các trường hợp. Nhưng nếu một người mong đợi kết quả đầu ra trung thực hoặc có thẩm quyền về một chủ đề không quen thuộc và mô hình mắc lỗi, hoặc chatbot đang sao chép và nâng cao kịch bản thao túng đã được chứng minh như của Loftus, thì khả năng thuyết phục của công nghệ sẽ trở nên nguy hiểm. “Hãy coi nó như một loại vũ khí nhân lực”, ông nói.

Những phát hiện về ký ức giả phản ánh xu hướng của con người là tin tưởng các hệ thống tự động và mô hình AI ngay cả khi chúng sai, Sayash Kapoor, một nhà nghiên cứu AI tại Princeton, nói với tôi. Mọi người mong đợi máy tính phải khách quan và nhất quán. Và đặc biệt là các mô hình ngôn ngữ lớn ngày nay cung cấp những lời giải thích nghe có vẻ hợp lý, đầy đủ; trích dẫn nguồn của họ; và gần như có thể đồng ý một cách nịnh nọt với người dùng - điều này có thể khiến chúng thuyết phục hơn khi chúng mắc lỗi. Những câu chèn tinh vi, hoặc “con ngựa thành Troy”, có thể cấy ghép ký ức giả chính xác là những loại lỗi ngẫu nhiên mà các mô hình ngôn ngữ lớn dễ mắc phải. Các luật sư thậm chí còn trích dẫn các vụ án pháp lý hoàn toàn do ChatGPT bịa đặt tại tòa án.

Các công ty công nghệ đã và đang tiếp thị AI tạo sinh cho các ứng cử viên Hoa Kỳ như một cách để tiếp cận cử tri qua điện thoại và ra mắt chatbot chiến dịch mới. “Sẽ rất dễ dàng, nếu các mô hình này bị sai lệch, để đưa một số thông tin [gây hiểu lầm] vào những trao đổi này mà mọi người không nhận thấy, bởi vì nó được lồng ghép vào đó”, Pattie Maes, giáo sư nghệ thuật và khoa học truyền thông tại MIT Media Lab và là đồng tác giả của bài báo về ký ức giả do AI cấy ghép, nói với tôi.

Chatbot có thể cung cấp một sự phát triển của các cuộc thăm dò ý kiến ​​mà một số chiến dịch đã sử dụng để tác động đến cử tri: các cuộc khảo sát giả mạo được thiết kế để gieo rắc những niềm tin tiêu cực về đối thủ, chẳng hạn như một cuộc khảo sát hỏi “Bạn sẽ nghĩ gì về Joe Biden nếu tôi nói với bạn rằng ông ấy bị buộc tội trốn thuế?”, điều này đã liên kết tổng thống với gian lận một cách vô căn cứ. Một chatbot gây hiểu lầm hoặc câu trả lời tìm kiếm AI thậm chí có thể bao gồm hình ảnh hoặc video giả mạo. Và mặc dù không có lý do gì để nghi ngờ rằng điều này hiện đang xảy ra, nhưng Google, Meta và các công ty công nghệ khác có thể phát triển nhiều hơn nữa loại ảnh hưởng này thông qua các dịch vụ AI của họ - chẳng hạn như bằng cách sử dụng các phản hồi của AI trong các công cụ tìm kiếm phổ biến và nền tảng truyền thông xã hội để tinh vi thay đổi dư luận chống lại quy định chống độc quyền. Ngay cả khi các công ty này vẫn hoạt động đúng đắn, các tổ chức có thể tìm cách thao túng các nền tảng AI lớn để ưu tiên một số nội dung nhất định thông qua việc tối ưu hóa mô hình ngôn ngữ lớn; các phiên bản ít nghiêm trọng hơn của hành vi này đã xảy ra.

Đồng thời, mọi công ty công nghệ đều có động cơ kinh doanh mạnh mẽ để các sản phẩm AI của họ phải đáng tin cậy và chính xác. Người phát ngôn của Google, Microsoft, OpenAI, Meta và Anthropic đều nói với tôi rằng họ đang tích cực chuẩn bị cho cuộc bầu cử, bằng cách lọc các phản hồi cho các truy vấn liên quan đến bầu cử để giới thiệu các nguồn có thẩm quyền, chẳng hạn. Ít nhất, các chính sách sử dụng của OpenAI và Anthropic đều cấm sử dụng sản phẩm của họ cho các chiến dịch chính trị.

Và ngay cả nếu nhiều người tương tác với một chatbot cố ý lừa dối, thì không rõ có bao nhiêu người sẽ tin tưởng kết quả đầu ra. Một cuộc khảo sát của Pew vào tháng 2 cho thấy chỉ có 2% số người được hỏi đã hỏi ChatGPT một câu hỏi về cuộc bầu cử tổng thống, và chỉ có 12% số người được hỏi tin tưởng một phần hoặc đáng kể vào chatbot của OpenAI về thông tin liên quan đến bầu cử. “Chỉ có một tỷ lệ khá nhỏ công chúng đang sử dụng chatbot cho mục đích bầu cử và báo cáo rằng họ sẽ tin vào” kết quả đầu ra, Josh Goldstein, một nhà nghiên cứu tại Trung tâm An ninh và Công nghệ Mới nổi của Đại học Georgetown, nói với tôi. Nhưng số lượng truy vấn liên quan đến bầu cử tổng thống có thể đã tăng lên kể từ tháng 2, và ngay cả khi ít người tìm đến chatbot AI với các truy vấn chính trị, thì các phản hồi do AI viết trong công cụ tìm kiếm sẽ phổ biến hơn.

Những lo ngại trước đây rằng AI sẽ cách mạng hóa bối cảnh thông tin sai lệch đã bị đặt sai chỗ một phần vì việc phân phối nội dung giả mạo khó hơn việc tạo ra nó, Kapoor, tại Princeton, nói với tôi. Một bức ảnh Photoshop cẩu thả tiếp cận hàng triệu người có thể gây ra thiệt hại nhiều hơn so với một bức ảnh deepfake chân thực được xem bởi hàng chục người. Chưa ai biết tác động của AI chính trị trong thế giới thực sẽ như thế nào, Kapoor nói. Nhưng có lý do để hoài nghi: Bất chấp những lời hứa hẹn trong nhiều năm từ các công ty công nghệ lớn về việc sửa chữa nền tảng của họ - và gần đây hơn là các mô hình AI của họ - những sản phẩm đó vẫn tiếp tục lan truyền thông tin sai lệch và mắc phải những sai lầm đáng xấu hổ.

Một tương lai mà chatbot AI thao túng ký ức của nhiều người có thể không khác biệt nhiều so với hiện tại. Các công ty công nghệ hùng mạnh từ lâu đã quyết định điều gì là và không được phép nói thông qua các điều khoản dịch vụ phức tạp, các chính sách kiểm duyệt nội dung mờ ám và các thuật toán đề xuất. Giờ đây, các công ty tương tự đang dành nguồn lực chưa từng có cho một công nghệ có khả năng đào sâu thêm một lớp nữa vào các quá trình mà qua đó suy nghĩ đi vào, hình thành và thoát ra khỏi tâm trí con người.

Blog post image

0 comments Blogger 0 Facebook

Đăng nhận xét

 
Agent.ai.vn © 2024 - Nắm bắt tương lai
Top