Copilot Studio của Microsoft: Dễ tạo chatbot, khó bảo mật?

Bạn có muốn sở hữu một chatbot được thiết kế riêng, phục vụ cho nhu cầu cụ thể của doanh nghiệp mình? Microsoft Copilot Studio có thể giúp bạn hiện thực hóa điều đó. Nhưng liệu công cụ này có thực sự an toàn?

Copilot Studio là một nền tảng AI cho phép người dùng, ngay cả những người không am hiểu kỹ thuật, tạo chatbot một cách dễ dàng. Ý tưởng đằng sau Copilot Studio là cho phép bất kỳ doanh nghiệp hoặc tổ chức nào cũng có thể xây dựng chatbot dựa trên dữ liệu và tài liệu nội bộ của họ.

Hãy tưởng tượng: một nhà phát triển game có thể sử dụng chatbot để hỗ trợ game thủ, giải đáp các câu hỏi từ cách hoàn thành trò chơi, cài đặt tối ưu, cho đến khắc phục sự cố kỹ thuật. Tuy nhiên, mọi thứ đều có hai mặt.

Theo Zenity, một công ty chuyên về bảo mật AI, Copilot Studio và những chatbot được tạo ra từ nó ẩn chứa nhiều nguy cơ bảo mật tiềm ẩn. CTO Michael Bargury của Zenity đã trình bày tại hội nghị bảo mật Black Hat về những lỗ hổng bảo mật nghiêm trọng của Copilot Studio.

Vấn đề nằm ở đâu?

Zenity cho biết cài đặt bảo mật mặc định của Copilot Studio thiếu sót và không đủ mạnh mẽ. Nói cách khác, khi bạn sử dụng Copilot Studio để tạo ra một chatbot tiện lợi cho khách hàng hoặc nhân viên, vô tình bạn có thể tạo ra một cánh cửa rộng mở cho các cuộc tấn công mạng.

Bargury đã minh họa cách tin tặc có thể nhúng mã độc vào một email có vẻ vô hại, sau đó yêu cầu chatbot Copilot "kiểm tra" email đó, và thế là mã độc đã được tiêm vào hệ thống.

Một ví dụ khác: Copilot có thể cung cấp cho người dùng một trang đăng nhập Microsoft giả mạo, nơi thông tin đăng nhập của nạn nhân sẽ bị đánh cắp, tất cả đều được hiển thị ngay trong chính chatbot Copilot.

Thực trạng đáng lo ngại:

Zenity tuyên bố rằng một doanh nghiệp lớn trung bình ở Mỹ hiện đang vận hành khoảng 3.000 chatbot như vậy. Điều đáng sợ hơn, họ cho rằng 63% trong số đó có thể được tìm thấy trực tuyến. Nếu điều này là đúng, thì có nghĩa là một công ty trong danh sách Fortune 500 trung bình có khoảng 2.000 chatbot sẵn sàng để lộ thông tin mật của công ty.

"Chúng tôi đã quét internet và tìm thấy hàng chục nghìn chatbot như vậy", Bargury nói. Ông cho biết cài đặt mặc định ban đầu của Copilot Studio tự động xuất bản chatbot lên web mà không cần bất kỳ xác thực nào để truy cập chúng. Lỗ hổng này đã được Microsoft khắc phục sau khi Zenity báo cáo, nhưng nó không giải quyết được vấn đề cho những chatbot được tạo ra trước khi bản cập nhật.

Bài học rút ra:

"Có một vấn đề cơ bản ở đây," Bargury nói. "Khi bạn cho AI quyền truy cập dữ liệu, dữ liệu đó sẽ trở thành mục tiêu tấn công." Nói tóm lại, Bargury cho rằng chatbot công khai vốn dĩ không an toàn.

Vấn đề này có hai khía cạnh. Một mặt, chatbot cần một mức độ tự chủ và linh hoạt nhất định để hoạt động hiệu quả. Mặt khác, Microsoft dường như đã bỏ qua một số lỗi bảo mật khá rõ ràng.

Điều này có lẽ không quá ngạc nhiên khi nhớ lại sự cố về tính năng Recall của Windows Copilot, liên quan đến việc chụp ảnh màn hình liên tục hoạt động của người dùng và lưu trữ chúng mà hầu như không có bất kỳ biện pháp bảo vệ nào.

Phản hồi của Microsoft:

Microsoft đã đưa ra một phản hồi khá dè dặt cho The Register. "Chúng tôi đánh giá cao công việc của Michael Bargury trong việc xác định và báo cáo có trách nhiệm về các kỹ thuật này thông qua một chương trình tiết lộ phối hợp. Chúng tôi đang điều tra các báo cáo này và liên tục cải thiện hệ thống của mình để chủ động xác định và giảm thiểu các loại mối đe dọa này và giúp bảo vệ khách hàng."

Kết luận:

Giống như nhiều ứng dụng AI khác, bảo mật dường như là một lĩnh vực đầy rẫy những hậu quả không mong muốn và thiệt hại ngoài dự kiến. Có vẻ như chúng ta còn một chặng đường dài để có được AI an toàn, đáng tin cậy, hoạt động đúng theo mong muốn và chỉ làm những gì chúng ta muốn.


Blog post image

0 comments Blogger 0 Facebook

Đăng nhận xét

 
Agent.ai.vn © 2024 - Nắm bắt tương lai
Top