Google từ chối vá lỗ hổng ASCII smuggling của Gemini dù các chuyên gia cảnh báo nguy cơ tấn công lừa đảo qua AI nghiêm trọng
Gemini đang đối mặt với một vấn đề bảo mật đáng lo ngại. Điều này cũng không quá bất ngờ, bởi trước đó các nhà nghiên cứu bảo mật đã từng chứng minh khả năng chiếm quyền điều khiển cả một ngôi nhà thông minh chỉ thông qua các lời mời Google Calendar có chứa mã hoặc văn bản ẩn để lợi dụng AI. Và giờ đây, một lỗ hổng nghiêm trọng khác lại xuất hiện: tin tặc có thể giấu mã độc trong ASCII, thứ mà các LLM có thể phát hiện nhưng người dùng thì không.
Phương thức tấn công này khá tương tự những gì ta đã thấy trước kia - Gemini bị lợi dụng do khả năng nhận diện văn bản mà người dùng bình thường không thể nhìn thấy. Tuy nhiên, đây không chỉ là vấn đề riêng của Gemini. Lỗ hổng tương tự cũng xuất hiện ở DeepSeek và Grok. Trong khi đó, ChatGPT, Copilot và Claude lại thể hiện khả năng chống chọi tốt hơn với kiểu tấn công này, mặc dù ChatGPT vẫn có những vấn đề bảo mật riêng cần giải quyết.
![Google từ chối vá lỗ hổng nguy hiểm của Gemini]()
Lỗ hổng này được phát hiện bởi FireTail, một công ty an ninh mạng đã thử nghiệm trên Gemini cùng các chatbot AI khác để kiểm tra xem kỹ thuật ASCII smuggling (hay Unicode character smuggling) có khả thi hay không. Điều đáng chú ý là khi nhận được báo cáo, Google phản hồi rằng đây không phải là lỗi bảo mật thực sự. Google cho rằng kiểu tấn công này "chỉ có thể dẫn đến các hành vi lừa đảo xã hội" và việc khắc phục "sẽ không giúp người dùng của chúng tôi ít bị ảnh hưởng hơn trước những cuộc tấn công như vậy."
Tham khảo một số mẫu iPhone tại Minh Tuấn Mobile để trải nghiệm Apple Music
Google khẳng định đây không phải lỗi bảo mật
Dù lỗ hổng ASCII smuggling của Gemini có thể không được coi là lỗi bảo mật theo nghĩa kỹ thuật, việc Google hoàn toàn bỏ qua vấn đề này vẫn khiến nhiều người lo lắng, đặc biệt khi Gemini ngày càng được tích hợp sâu rộng vào hệ sinh thái Google. Hiện nay, người dùng thậm chí có thể kết nối Gemini với Gmail, điều này mở ra khả năng các cuộc tấn công lừa đảo có thể gửi lệnh đến AI mà người dùng hoàn toàn không hề hay biết.
![Google từ chối vá lỗ hổng nguy hiểm của Gemini]()
Điều này dẫn đến nhiều câu hỏi về tác động của vấn đề đối với Gemini trong tương lai. Khi ChatGPT đang tích cực phát triển tính năng mua sắm, hợp lý khi Google cũng muốn làm điều tương tự. Nhưng nghiên cứu từ FireTail cho thấy lỗ hổng này cho phép kẻ xấu chèn liên kết đến các trang web độc hại vào kết quả của Gemini thông qua các chỉ thị vô hình, điều mà các nhà nghiên cứu bảo mật đã chứng minh là hoàn toàn khả thi.
Đây thực sự là điều đáng lo ngại. Sẽ rất đáng quan tâm xem Google có thay đổi lập trường hay không, nhất là khi các công ty khác như Amazon đã công bố các bài phân tích chi tiết về cùng vấn đề này. Các kỹ sư bảo mật của Amazon thậm chí còn nhấn mạnh:
"Các biện pháp bảo vệ nên được coi là thành phần cốt lõi của các ứng dụng AI tạo sinh quan trọng, chứ không phải tính năng tùy chọn."