サムスンがAIスマートグラスの詳細を初公開 見ている物を理解する新しいウェアラブル

Samsungが開発を進めているAIスマートグラスについて、初めて具体的な情報が明らかになりました。視線の高さに配置されたカメラとスマートフォンとの連携を特徴とし、ユーザーが見ているものをAIが理解してサポートする新しいウェアラブルデバイスになるとみられています。

MWCで初めて具体的な仕組みを説明

今回の情報は、スペイン・バルセロナで開催されたMobile World Congressで、Samsungモバイル部門の幹部であるJay Kim氏が明らかにしたものです。

SamsungはこれまでにもXR分野の製品としてSamsung Galaxy XRの存在を公開していますが、これはどちらかといえばヘッドセット型のデバイスで、日常的に装着するにはやや大きいという特徴があります。

これに対し、今回開発が進められているスマートグラスは、より自然に装着できる軽量なメガネ型デバイスを目指しているとされています。日常生活の中で長時間身につけても違和感の少ない製品を目標としているようです。

カメラが見ている世界をAIが理解

新しいスマートグラスの大きな特徴は、目線の高さに配置されたカメラです。このカメラがユーザーの視界を捉え、その情報をスマートフォンへ送信します。

送られたデータはスマートフォン側で処理され、AIが対象物や状況を認識。必要な情報をリアルタイムでユーザーに提供する仕組みになると説明されています。

AIの処理は主にスマートフォン側で行われるため、グラス本体は比較的軽量な構造にできる可能性があります。Samsungはこの仕組みによって、スマートフォンとウェアラブルを組み合わせた新しいエコシステムを構築したい考えです。

このプロジェクトにはチップメーカーのQualcommや、AI技術を提供するGoogleもパートナーとして関わっているとされています。

「エージェントAI」が中心的な役割に

今回のスマートグラスでは、いわゆる「エージェントAI」と呼ばれる機能が中心になるとみられています。

これはユーザーの指示を受けてAIが自律的にタスクを実行する仕組みで、例えば周囲の状況を認識しながらホテルの予約を行ったり、配車サービスを呼んだりといった操作を音声だけで行えるようになる可能性があります。

Cristiano Amon氏は、このようなAIエージェントがユーザーの代わりにさまざまな作業を行う未来を説明しており、音声と視覚情報を組み合わせた新しい操作体験が実現するとしています。

また、AIの進化もこうしたデバイスの開発を後押ししています。例えばGoogle Geminiのような高度なAIによって、ユーザーはアプリを操作する代わりに自然な会話で指示を出すことができるようになりつつあります。

スマートグラス市場でMetaに対抗

スマートグラスの分野では現在、Meta Platformsが一定の存在感を示しています。Samsungの参入は、こうした市場構図に新たな競争をもたらす可能性があります。

ヘッドセット型デバイスは高い没入感を提供できる一方、日常生活で装着するにはハードルが高いという側面があります。これに対し、メガネ型のスマートグラスはより日常に溶け込みやすく、大衆市場に広がる可能性が高いと考えられています。

Cristiano Amon氏は現在のスマートグラスの状況について、スマートフォン黎明期に近い段階にあると説明しています。今後、開発者が多くのAIエージェントを開発することで、機能や用途が大きく広がっていく可能性があるという見方です。

2026年の発売を改めて確認

SamsungおよびQualcommの幹部によると、このAIスマートグラスは2026年の発売が予定されています。ただし、現時点では正式な製品名や価格などの詳細は明らかにされていません。

スマートフォンとAIの進化が重なり、ウェアラブルデバイスの形も変わりつつあります。Samsungのスマートグラスが実際にどのような体験を提供するのか、今後の続報が注目されます。

ソース

スポンサーリンク
スポンサーリンク
Galaxy
スポンサーリンク
Sumahodigestをフォローする
スポンサーリンク