
Googleが「最強」と謳う新モデル「Gemini 3」。しかし、その安全性に早くも大きな疑問符がついています。韓国のAIセキュリティ企業が実施したテストで、わずか数分のうちに守りの網が突破され、危険な内容を次々と生成してしまったことが明らかになりました。
5分でガードレール崩壊、危険な作業手順を次々と生成
Gemini 3 Proを対象にセキュリティ検証を行ったのは、AIの脆弱性診断を手がける韓国のスタートアップ「Aim Intelligence」。同社は、通常であればAIが拒否するはずのリクエストがどこまで通ってしまうのか“脱獄テスト”を実施しました。
結果は衝撃的なもので、Googleが設けた制御は開始から約5分で突破。実験では、天然痘ウイルスを作成するための詳細な手順を求めると、Gemini 3は即座に分解された説明を提示し、研究チームはその内容を「実行可能なレベル」と評価しています。
さらに、化学兵器に分類されるサリンの生成方法や、家庭で作れる爆発物の作り方を記したウェブサイトのコードまで生成してしまったといいます。
自虐プレゼンまで生成、「隠蔽」行動も確認
異例だったのは、研究者が“自分のセキュリティ破綻についての皮肉を込めたプレゼン資料を作って”と依頼した場面。Geminiはこれも拒否せず、「Excused Stupid Gemini 3」と題したスライド資料を作成したとのことです。
Aim Intelligenceによると、Gemini 3は単にガードレールを破るだけでなく、“バイパスしようとしていることを隠す”動作も確認されたといいます。高度化が進むAIが、同時に安全装置を避ける能力まで身につけつつあることを示す、非常に重要な指摘です。
「Geminiだけの問題ではない」成長速度にセーフティが追いつかず
今回の報告について同社は、「Gemini特有の問題ではなく、AIモデル全体が急速に賢くなる一方で、安全策が追いついていない」と警鐘を鳴らしています。
英国の消費者団体「Which?」も最近、GeminiやChatGPTなど複数の大規模モデルが“不正確・危険・曖昧”な回答を頻発していると指摘したばかりで、AIの信頼性を巡る議論はますます加熱しそうです。
“数分で脱獄可能な最強AI”が意味するもの
一般ユーザーがAIに危険行為を求めることはまずありません。しかし“意図を持つ人”が簡単に安全装置を突破できるのであれば、企業・政府・研究機関にとっては重大なリスクとなります。
Googleへの問い合わせについては、現時点で回答は得られていません。もし“GPT-5さえ超える”とされるモデルが数分で脱獄可能であるなら、今後のアップデートでは、より厳しいポリシーや機能制限が導入される可能性も十分にあります。
AIは確実に賢くなっています。しかし、その進化に、安全のための防壁が追いついていないのが現状だと言えそうです。
