NVIDIAがCES 2026で「自分だけのAIロボット」を実現するデモを披露
NVIDIAは2026年1月5日に開催されたCES 2026において、パーソナルAIスーパーコンピューター DGX Spark と小型ロボット Reachy Mini を組み合わせたエージェントデモを公開した。CEOのジェンスン・フアン氏がキーノートで直接デモを行い、デスクに置いた小型ロボットとリアルタイムで会話・協業できる様子を見せた。
「机の上のR2-D2」というビジョン
このデモのコンセプトは、クラウドに依存せず手元のハードウェアでデータをプライベートに処理しながら動作する「パーソナルAIバディ」だ。DGX Sparkのローカル処理能力を使うことで、会話内容や取り扱うデータを外部サーバーに送ることなくエージェントを動かせる点が特徴となっている。
使用されている主なコンポーネント
デモで用いられた技術スタックは以下の通りだ。
- 推論モデル: NVIDIA Nemotron 3 Nano(ローカル動作時は約65GBのディスク容量が必要)
- 視覚モデル: NVIDIA Nemotron Nano 2 VL(ビジョン・ランゲージモデル、約28GB)
- 音声合成: ElevenLabsのTTSモデル
- エージェント基盤: NVIDIA NeMo Agent Toolkit
- ロボット: Reachy Mini(実機またはシミュレーター)
NeMo Agent ToolkitはLangChain・LangGraph・CrewAIといった既存のエージェントフレームワークとも連携でき、モデルの差し替えやルーティングロジックの変更が容易な疎結合アーキテクチャが採用されている。トークン使用効率やレイテンシーのプロファイリング・自動チューニング機能も内蔵している。
完全オープンな構成が鍵
既存のクローズドなパーソナルアシスタントとの最大の違いは、モデル・プロンプト・ツール・ロボットの動作すべてをユーザーが制御できる点だ。Reachy Miniはカメラ(視覚)・スピーカー(発話)・アクチュエーター(動作)を持ち、Pythonから直接制御できるため、既存のエージェントスタックへの統合が容易となっている。
デプロイ方法も柔軟で、DGX Sparkなどのローカルハードウェアで動かす他に、NVIDIA BrevやHugging Face Inference Endpointsを使ったクラウドGPU上への展開、またはNVIDIAやHugging Faceのサーバーレスモデルエンドポイントへのリクエスト送信も選択できる。
日本のAI開発者への示唆
Reachy Miniは現在Hugging Face上でも情報が公開されており、ソースコードを参照しながら同様の構成を自前で再現できる。エッジAIとロボティクスの融合という観点では、国内でも製造・介護・教育といった分野への応用が期待されるアーキテクチャパターンといえるだろう。NVIDIAがハードウェア・モデル・フレームワークをすべてオープンに揃えてきたことで、個人や中小規模チームがフィジカルAIエージェントを開発するハードルは大きく下がっている。