Mục lục:

  • Giới thiệu
  • Vụ việc tấn công Claude Computer Use
  • Phương pháp tấn công: Prompt Injection
  • Phạm vi ảnh hưởng và các nguy cơ tiềm ẩn
  • Biện pháp phòng ngừa và kết luận

Giới thiệu:

Các nhà nghiên cứu an ninh mạng gần đây đã phát hiện ra một lỗ hổng nghiêm trọng trong các công cụ Trí tuệ Nhân tạo Thế hệ Mới (GenAI), cho phép tin tặc lợi dụng để thực hiện các cuộc tấn công nguy hiểm. Bài viết này sẽ phân tích chi tiết về một vụ việc cụ thể liên quan đến Claude Computer Use của Anthropic, đồng thời làm rõ các phương pháp tấn công và những rủi ro tiềm ẩn đối với người dùng.

User added image

Vụ việc tấn công Claude Computer Use:

Vào giữa tháng 10 năm 2024, Anthropic đã ra mắt Claude Computer Use, một mô hình AI cho phép Claude điều khiển thiết bị. Tuy nhiên, các nhà nghiên cứu an ninh mạng nhanh chóng phát hiện ra lỗ hổng cho phép lợi dụng tính năng này. Johann Rehnberger, một chuyên gia an ninh mạng, đã thành công trong việc khiến Claude tải xuống và chạy phần mềm độc hại, đồng thời liên lạc với cơ sở hạ tầng C2 (Command and Control) của tin tặc, tất cả chỉ thông qua các lệnh nhắc (prompt). Rehnberger gọi phương pháp khai thác này là "ZombAIs".

Mặc dù Claude Computer Use vẫn đang trong giai đoạn beta và Anthropic đã cảnh báo về rủi ro tiềm ẩn liên quan đến "prompt injection", sự việc này cho thấy khả năng dễ bị tổn thương nghiêm trọng của các công cụ AI trước các cuộc tấn công tinh vi.

Phương pháp tấn công: Prompt Injection:

Vụ tấn công trên sử dụng kỹ thuật "prompt injection", một loại tấn công khá phổ biến nhắm vào các công cụ AI. Trong trường hợp này, tin tặc đã khéo léo xây dựng các câu lệnh nhắc (prompt) nhằm điều khiển Claude thực hiện các hành động không mong muốn, bao gồm tải xuống và chạy phần mềm độc hại như Sliver – một framework C2 nguồn mở thường bị lạm dụng bởi tội phạm mạng để thiết lập quyền truy cập vào hệ thống bị xâm nhập. Rehnberger nhấn mạnh đây không phải là phương pháp duy nhất, mà còn có vô số cách khác để tấn công, ví dụ như khiến Claude tự viết, biên dịch và chạy mã độc. Thậm chí, các LLM (Large Language Models) có thể xuất ra mã ANSI escape, dùng để chiếm quyền điều khiển terminal hệ thống. Một cuộc tấn công kiểu này được gọi là Terminal DiLLMa. The Hacker News cũng cho thấy chatbot DeepSeek AI cũng dễ bị tấn công bằng prompt injection.

Phạm vi ảnh hưởng và các nguy cơ tiềm ẩn:

Sự việc này làm nổi bật những rủi ro nghiêm trọng mà các công cụ GenAI có thể gây ra nếu không được bảo mật đúng cách. Việc tin tặc có thể điều khiển các thiết bị thông qua AI có thể dẫn đến hậu quả khôn lường, bao gồm đánh cắp dữ liệu, gây rối loạn hệ thống, và thậm chí là gây thiệt hại vật chất. Khả năng GenAI viết, biên dịch và chạy mã độc từ đầu càng làm tăng thêm mức độ nguy hiểm của các cuộc tấn công này.

Biện pháp phòng ngừa và kết luận:

Các nhà phát triển AI cần phải ưu tiên vấn đề an ninh và tăng cường các biện pháp phòng ngừa để ngăn chặn các cuộc tấn công prompt injection. Người dùng cũng cần nâng cao nhận thức về các mối đe dọa này và tuân thủ các khuyến cáo an ninh, chẳng hạn như tránh cung cấp thông tin nhạy cảm cho các công cụ AI và cách ly chúng khỏi các hệ thống quan trọng. Sự việc này cho thấy rằng, trong khi GenAI mang lại nhiều tiềm năng to lớn, vấn đề an ninh vẫn là một thách thức cần được giải quyết ngay lập tức để đảm bảo an toàn cho người dùng và hệ thống.

0 comments Blogger 0 Facebook

Đăng nhận xét

 
Agent.ai.vn © 2024 - Nắm bắt tương lai
Top