Trí tuệ nhân tạo có thể vượt qua bài kiểm tra an ninh mạng
Mục lục:
- Giới thiệu
- Nghiên cứu và thử nghiệm
- Kết quả
- Kết luận
- Tác động và tiềm năng
1. Giới thiệu
Một nghiên cứu gần đây do nhà nghiên cứu Prasad Calyam của Đại học Missouri và các cộng tác viên từ Đại học Amrita ở Ấn Độ thực hiện đã chỉ ra rằng các chatbot được hỗ trợ bởi trí tuệ nhân tạo (AI) có khả năng vượt qua bài kiểm tra an ninh mạng. Nghiên cứu này đã thử nghiệm hai công cụ AI tạo sinh hàng đầu là ChatGPT của OpenAI và Bard của Google (nay là Gemini) bằng cách sử dụng bài kiểm tra an ninh mạng tiêu chuẩn dành cho chuyên gia tấn công đạo đức.
2. Nghiên cứu và thử nghiệm
Chuyên gia tấn công đạo đức là những chuyên gia an ninh mạng sử dụng các thủ thuật và công cụ tương tự như tin tặc độc hại để tìm và khắc phục các lỗ hổng bảo mật. Bài kiểm tra an ninh mạng dành cho chuyên gia tấn công đạo đức đánh giá kiến thức của một người về các loại tấn công khác nhau, cách bảo vệ hệ thống và cách ứng phó với vi phạm bảo mật.
Trong nghiên cứu, Calyam và nhóm của ông đã thử nghiệm các chatbot với các câu hỏi tiêu chuẩn từ một bài kiểm tra chuyên gia tấn công đạo đức đã được xác thực. Ví dụ, họ yêu cầu các công cụ AI giải thích một cuộc tấn công người ở giữa - một cuộc tấn công trong đó một bên thứ ba chặn cuộc trao đổi thông tin giữa hai hệ thống. Cả hai chatbot đều có thể giải thích cuộc tấn công và đề xuất các biện pháp bảo mật để ngăn chặn nó.
3. Kết quả
Kết quả cho thấy Bard đã vượt trội hơn ChatGPT về độ chính xác, trong khi ChatGPT thể hiện phản hồi tốt hơn về tính đầy đủ, rõ ràng và ngắn gọn. Calyam chia sẻ: Chúng tôi đã đưa chúng vào nhiều tình huống khác nhau từ bài kiểm tra để xem chúng sẽ đi xa đến đâu trong việc trả lời các câu hỏi.
Mặc dù cả hai chatbot đều vượt qua bài kiểm tra và có phản hồi tốt có thể hiểu được đối với những người có kiến thức về phòng thủ mạng, nhưng chúng cũng đưa ra những câu trả lời sai. Calyam nhấn mạnh: Trong an ninh mạng, không có chỗ cho sai sót. Nếu bạn không khắc phục tất cả các lỗ hổng và dựa vào lời khuyên tiềm ẩn nguy hiểm, bạn sẽ bị tấn công lại. Điều nguy hiểm là khi các công ty nghĩ rằng họ đã khắc phục một vấn đề nhưng thực tế không phải vậy.
Các nhà nghiên cứu cũng phát hiện ra rằng khi được yêu cầu xác nhận phản hồi của chúng với các lời nhắc như bạn có chắc chắn không?, cả hai hệ thống đều thay đổi câu trả lời của mình, thường sửa chữa các lỗi trước đó. Khi được hỏi lời khuyên về cách tấn công một hệ thống máy tính, ChatGPT đã đề cập đến đạo đức trong khi Bard trả lời rằng nó không được lập trình để hỗ trợ loại câu hỏi đó.
4. Kết luận
Calyam không tin rằng những công cụ này có thể thay thế các chuyên gia an ninh mạng con người với chuyên môn giải quyết vấn đề để tạo ra các biện pháp phòng thủ mạng mạnh mẽ, nhưng chúng có thể cung cấp thông tin cơ bản cho cá nhân hoặc các công ty nhỏ cần hỗ trợ nhanh chóng. Ông nói: Những công cụ AI này có thể là điểm khởi đầu tốt để điều tra các vấn đề trước khi tham khảo ý kiến của chuyên gia. Chúng cũng có thể là công cụ đào tạo tốt cho những người làm việc với công nghệ thông tin hoặc muốn tìm hiểu những điều cơ bản về việc xác định và giải thích các mối đe dọa mới nổi.
5. Tác động và tiềm năng
Điều hứa hẹn nhất là các công cụ AI sẽ tiếp tục cải thiện khả năng của mình. Calyam cho biết: Nghiên cứu cho thấy các mô hình AI có tiềm năng đóng góp vào tấn công đạo đức, nhưng cần nhiều công việc hơn để khai thác đầy đủ khả năng của chúng. Cuối cùng, nếu chúng ta có thể đảm bảo độ chính xác của chúng với tư cách là chuyên gia tấn công đạo đức, chúng ta có thể cải thiện các biện pháp bảo mật tổng thể và dựa vào chúng để giúp chúng ta tạo ra một thế giới kỹ thuật số an toàn và bảo mật hơn.
Nguồn:
- Raghu Raman et al, ChatGPT or Bard: Who is a better Certified Ethical Hacker?, Computers & Security (2024). DOI: 10.1016/j.cose.2024.103804
- University of Missouri, cùng với ảnh trong link sau: https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEjrwz9PG3ltGG7b-dJ4KGk3s069Qm95v6sNrat4kvH0lfkQfaNlJaH9zwxr8dpplA6PuIRfSF37QHQNHMbLPv5L3qtUcPF13MFopQhf4DEsNlGlpTRWPCJiFKQyLn2U7FALiR1Y7Qmn9RnrPu9YeuJv2Cne8sMo84Yjl2ukMgJqXbUu4C7coTJ44-0vNsBY/s16000/logo-new.jpg ở phần cuối bài viết.
0 comments Blogger 0 Facebook
Đăng nhận xét