Trợ lý AI Copilot của Microsoft có thể bị thao túng để đánh cắp dữ liệu nhạy cảm
Một báo cáo bảo mật mới đây đã gióng lên hồi chuông cảnh báo về lỗ hổng bảo mật nghiêm trọng trong Copilot, trợ lý AI của Microsoft, cho phép tin tặc khai thác để đánh cắp dữ liệu nhạy cảm, thậm chí thực hiện các cuộc tấn công lừa đảo.
Copilot, chatbot được Microsoft thiết kế để các tổ chức tùy chỉnh theo nhu cầu riêng, cho phép người dùng tương tác và nhận hỗ trợ từ AI trong môi trường làm việc. Tuy nhiên, nghiên cứu của chuyên gia bảo mật Michael Bargury đã chỉ ra rằng chatbot này có thể bị thao túng để tiết lộ thông tin bí mật của tổ chức, bao gồm email và giao dịch ngân hàng.
Phát biểu tại hội nghị bảo mật Black Hat ở Las Vegas, Bargury đã trình bày chi tiết cách thức khai thác lỗ hổng này. Theo đó, tin tặc có thể lừa chatbot thay đổi người nhận trong giao dịch chuyển khoản ngân hàng bằng cách gửi email độc hại mà nhân viên được nhắm mục tiêu không cần mở.
Nguy hiểm hơn, nếu tin tặc xâm nhập được vào tài khoản của nhân viên, chúng có thể dễ dàng khai thác Copilot để lấy cắp dữ liệu nhạy cảm chỉ bằng cách đặt các câu hỏi đơn giản. Bargury cho biết thêm: "Tôi có thể làm điều này với tất cả những người bạn từng nói chuyện và tôi có thể gửi hàng trăm email thay mặt bạn."
Lỗ hổng bảo mật của Copilot bắt nguồn từ chính khả năng truy cập dữ liệu của công ty - yếu tố then chốt giúp chatbot này hoạt động hiệu quả. Bargury nhấn mạnh rằng nhiều chatbot như vậy được đặt mặc định ở chế độ công khai trên mạng, khiến chúng trở thành mục tiêu dễ dàng cho tin tặc.
"Chúng tôi đã quét internet và tìm thấy hàng chục nghìn con bot như vậy", ông nói với The Register.
Phát hiện này một lần nữa gióng lên hồi chuông cảnh báo về rủi ro bảo mật tiềm ẩn khi sử dụng các công cụ AI trong môi trường doanh nghiệp. Các chatbot AI như Copilot và ChatGPT, khi được kết nối với tập dữ liệu chứa thông tin nhạy cảm, có thể trở thành "con dao hai lưỡi" gây ra những hậu quả khôn lường.
Bài học rút ra? Các tổ chức cần thận trọng hơn khi triển khai và sử dụng các công cụ AI, đặc biệt là chatbot, trong môi trường làm việc. Việc tăng cường bảo mật, giới hạn quyền truy cập dữ liệu và nâng cao nhận thức cho nhân viên về các nguy cơ tiềm ẩn là vô cùng quan trọng để ngăn chặn những vụ tấn công mạng nguy hiểm.

0 comments Blogger 0 Facebook
Đăng nhận xét