
セキュリティ研究者によって、GoogleのAI「Gemini」が特定のサイバー攻撃に弱いことが報告されました。問題は「ASCIIスムグリング」と呼ばれる手法で、メールやカレンダーの招待状に仕込まれた悪意のある指示(プロンプト)をAIが読み取ってしまうものです。Geminiにこの指示を読み取らせると、意図せず機密情報が漏洩する可能性があります。
ASCIIスムグリングとは何か
ASCIIスムグリングでは、攻撃者がAIに読ませたい隠れた指示を文字サイズを極小にするなどして本文内に埋め込みます。ユーザーがそのテキストをAIに要約させると、AIは隠されたプロンプトも読み取り、メール内の個人情報や連絡先を攻撃者に送信する可能性があります。GeminiはGoogle Workspaceとの統合が進んでいるため、この脆弱性は業務利用にもリスクをもたらします。
他のLLMとの比較とGoogleの対応
セキュリティ研究者のViktor Markopoulos氏は、複数の大規模言語モデル(LLM)を対象にテストを実施。Geminiのほか、DeepSeekやGrokも同様の攻撃に脆弱であることが判明しました。一方で、ClaudeやChatGPT、Copilotは保護機能があり、安全性が確認されています。
Markopoulos氏はGoogleに脆弱性を報告し、実際にGeminiが隠された指示に従い、特定のウェブサイトを共有してしまうデモも提示しました。しかしGoogleはこれを「セキュリティバグではなくソーシャルエンジニアリングの問題」と判断。最終的な責任はユーザー側にあるとして、修正対応の予定はないとしています。
ユーザーにとっては、便利なAIツールであっても、悪意のある文書やメールを扱う際には慎重さが求められます。Geminiの脆弱性は、技術的なAIの安全性だけでなく、利用者自身のセキュリティ意識も重要であることを示しています。