株式会社renue
AI導入・DXの悩みをプロに相談してみませんか?
AIやDXに関する悩みがありましたら、お気軽にrenueの無料相談をご利用ください。 renueのAI支援実績、コンサルティングの方針や進め方をご紹介します。
自動運転はフィジカルAIの「もう一つの主戦場」
フィジカルAIと聞くと「ヒューマノイドロボット」を思い浮かべる方が多いでしょう。しかし実は、自動運転はフィジカルAIの最大の応用領域の一つです。NVIDIAは「ヒューマノイドと自動運転の統合展開」を戦略の柱に据え、同じVLAモデル技術を二足歩行ロボットにも四輪走行車にも適用しています。
2026年3月、NVIDIAとUberは2028年までに28都市4大陸でL4ロボタクシーを展開する大規模パートナーシップを発表(Uber IR)。日本でもティアフォーといすゞがNVIDIA DRIVEベースのレベル4自動運転バスの開発を開始しました。
本記事では、自動運転とヒューマノイドの技術的な繋がり、NVIDIAのDRIVEプラットフォーム、主要パートナーシップ、そして日本の動きまでを解説します。
フィジカルAIの2大応用 ― 「二足歩行」と「四輪走行」
フィジカルAIを「AIが物理世界で自律的に動く技術」と定義するなら、その2大応用領域は明確です。
| 応用領域 | ヒューマノイドロボット | 自動運転車 |
|---|---|---|
| 移動方式 | 二足歩行 | 四輪走行 |
| 動作環境 | 工場、倉庫、家庭 | 道路、高速道路、駐車場 |
| AIモデル | GR00T(VLA) | Alpamayo(VLA) |
| センサー | カメラ、力覚、触覚 | カメラ、LiDAR、レーダー |
| NVIDIAプラットフォーム | Isaac Sim / Isaac Lab | DRIVE AGX / DRIVE Sim |
| 代表企業 | Tesla、Figure AI、AgiBot | Uber×NVIDIA、Waymo、Tesla FSD |
共通する技術基盤
注目すべきは、ヒューマノイドと自動運転で技術基盤が急速に統合されている点です。
- VLAモデル:GR00T(ヒューマノイド用)とAlpamayo(自動運転用)は、いずれも「視覚+言語→行動」の統合モデル
- シミュレーション基盤:Omniverseがヒューマノイドのロボット訓練にも、自動運転の仮想走行にも使われる
- チップ:NVIDIA AGX ThorはDRIVE(自動運転)にもIsaac(ロボット)にも搭載可能
- Sim-to-Real:仮想空間での大量訓練 → 現実世界への転移は両分野で共通のアプローチ
NVIDIAジェンスン・フアンCEOが「フィジカルAIと自動運転AIの統合展開」を繰り返し強調するのは、この技術的な一体性があるからです。
NVIDIA DRIVEプラットフォーム ― 自動運転のフルスタック
AGX Thor ― 2,000+ TFLOPSの車載コンピュータ
NVIDIA DRIVE AGX Hyperion 10の中核は、BlackwellアーキテクチャベースのDRIVE AGX Thorです。1基あたり2,000 FP4 TFLOPS以上のリアルタイム演算能力を持ち、これを2基搭載するHyperion 10は冗長性と高性能を両立します(NVIDIA Newsroom)。
Alpamayo VLA ― 「考える」自動運転AI
Alpamayoは100億パラメータのChain-of-Thought型VLAモデルで、「なぜその判断をしたか」を推論プロセスとして説明できる点が最大の特徴です(TechCrunch)。
- 信号故障の交差点、予測不能な工事現場、不規則な歩行者行動といった「ロングテール」エッジケースを未経験でも処理
- Alpamayo 1.5ではマルチカメラ対応・ナビゲーションガイダンス・柔軟なカメラパラメータ設定を追加
- 10Bパラメータという車載実装可能なサイズに収まっている
NVIDIA × Uber ― 28都市4大陸のロボタクシー
2026年3月、NVIDIAとUberは史上最大規模のロボタクシー展開計画を発表しました(NVIDIA Newsroom)。
| フェーズ | 時期 | 内容 |
|---|---|---|
| Phase 1 | 展開前 | データ収集車両で都市固有の走行データを取得、Alpamayoを都市ごとに最適化 |
| Phase 2 | 2027年前半〜 | LA・サンフランシスコ湾岸でオペレーター付きロボタクシー開始 |
| Phase 3 | 〜2028年 | 28都市(北米・欧州・豪州・アジア)で完全無人L4運行 |
NVIDIAが「L4フルスタック・ソフトウェアプロバイダー」として自動運転業界に本格参入する転機であり、チップ供給だけでなくAIソフトウェアで自動運転の"脳"を支配する戦略が明確になりました。欧州ではBoltとの提携も発表されています。
主要パートナーシップ ― 世界の自動車メーカーが動く
| パートナー | 内容 | 時期 |
|---|---|---|
| Uber | 28都市4大陸でL4ロボタクシー展開 | 2027年開始〜2028年 |
| BYD | DRIVE Hyperion搭載L4車両開発 | 2026年〜 |
| Geely | DRIVE Hyperion搭載L4車両開発 | 2026年〜 |
| 日産自動車 | DRIVE Hyperion搭載L4車両開発 | 2026年〜 |
| いすゞ × ティアフォー | DRIVE AGX Thor搭載L4自動運転バス | 2026年〜 |
| トヨタ | NVIDIA協業による自動運転の未来構想 | 進行中 |
| Hyundai | Boston Dynamics Atlas+自動運転AI統合 | 2026年〜 |
いすゞ × ティアフォー × NVIDIA ― 日本のレベル4バス
日本でもフィジカルAI×自動運転の動きが加速しています。ティアフォーといすゞは、NVIDIA DRIVE AGX Thorを搭載したレベル4自動運転バスの開発を開始しました(いすゞ自動車)。
ティアフォーの技術的転換
ティアフォーは自動運転ソフトウェア「Autoware」の開発を主導する企業ですが、2026年3月に従来のルールベースからAI中心のアーキテクチャへの移行を発表しました。NVIDIAのAlpamayo VLAモデルをAutowareに統合し、VLA(視覚+言語+行動)による自律判断を実装します(PR TIMES)。
これは、日本の自動運転開発がフィジカルAIの潮流に合流した象徴的な出来事です。ルールベース(「信号が赤なら停止」)からAIベース(「状況を総合的に判断して行動」)への転換は、まさにフィジカルAIの本質です。
Tesla FSD技術のOptimus転用 ― 車とロボットの「脳の共通化」
Teslaは自動運転(FSD)とヒューマノイド(Optimus)で同じAIチップ(AI5/AI6)を共通使用しています。数十億マイルの走行データから学んだ空間認識能力を、ロボットの環境認識に直接転用できる点が、他社にない独自のアドバンテージです。
| 技術要素 | FSD(自動運転) | Optimus(ヒューマノイド) |
|---|---|---|
| チップ | AI5/AI6 | AI5/AI6(同一) |
| 空間認識 | カメラベースVision-Only | カメラベース(FSD転用) |
| 学習データ | 数十億マイルの走行データ | 走行データ+工場データ |
| 学習基盤 | Cortex / Dojo | Cortex / Dojo(共通) |
マスクの「テスラはフィジカルAI企業だ」という宣言は、車もロボットも「物理世界で自律的に動くAIデバイス」という同一のフレームワークで捉えていることを意味します。
自動運転×ヒューマノイドの技術スタック比較
| 層 | 自動運転 | ヒューマノイド | 共通点 |
|---|---|---|---|
| 知覚 | カメラ・LiDAR・レーダー | カメラ・力覚・触覚 | カメラベースのCV技術 |
| 判断 | Alpamayo VLA(Chain-of-Thought推論) | GR00T VLA(デュアルシステム推論) | VLAアーキテクチャ |
| 制御 | ステアリング・加速・ブレーキ | 関節角度・把持力・歩行バランス | リアルタイム制御(120-200Hz) |
| 安全 | 冗長システム・安全停止 | 力制御・衝突回避 | 物理安全層の設計 |
| シミュレーション | DRIVE Sim | Isaac Sim | Omniverse基盤 |
知覚→判断→制御の3層構造は完全に共通しています。差異は主にセンサーの種類と制御対象(車輪 vs 関節)にあり、AIモデルの基本アーキテクチャ(VLA)は同一です。この技術的一体性が、NVIDIAの「統合展開」戦略の根拠です。
renueの見解
renueの技術スタンスとして、自動運転とヒューマノイドの技術統合は「汎用AIモデルの進化を追うことが最優先」というポジションをさらに強化します。NVIDIAがAlpamayo(自動運転)とGR00T(ヒューマノイド)を同一のOmniverseプラットフォーム上で展開しているように、AIモデルのレベルで見れば自動運転もロボットも「同じ問題」です。
企業がAI戦略を考える際は、「自動運転のAI」「ロボットのAI」と分けて考えるのではなく、フィジカルAI全体の技術進化を一体的にキャッチアップする視点が重要です。
よくある質問(FAQ)
Q. 自動運転とヒューマノイドロボット、技術的にどう繋がっていますか?
両者はVLA(Vision-Language-Action)モデルという同一のAIアーキテクチャを共有しています。NVIDIAのOmniverse基盤で訓練され、AGX Thorチップで動作する点も共通です。「見て、判断して、動く」という3層構造は車もロボットも同じです。
Q. 日本でロボタクシーはいつ走りますか?
ティアフォーといすゞがNVIDIA DRIVE搭載のレベル4自動運転バスを開発中です。NVIDIA×Uberのロボタクシーはアジアへの展開も計画されており、日本でのサービス開始は2028年前後が見込まれます。
Q. Tesla FSDとNVIDIA DRIVEはどう違いますか?
Tesla FSDは自社チップ・自社データ・自社車両の垂直統合モデル。NVIDIA DRIVEはプラットフォームとして複数の自動車メーカーに提供するオープンモデルです。アプローチは対照的ですが、VLAベースのAI技術という点では収束が進んでいます。
まとめ
自動運転はフィジカルAIの「もう一つの主戦場」であり、ヒューマノイドロボットとVLAモデル・Omniverse・AGX Thorという技術基盤を共有しています。NVIDIAとUberの28都市ロボタクシー計画、ティアフォー×いすゞのレベル4バス、Tesla FSDのOptimus転用——2026年は自動運転×フィジカルAIの統合が一気に加速した年です。
「自動運転の技術」と「ロボットの技術」を別物として見る時代は終わり、フィジカルAIという一つの大きな技術潮流として理解することが、次の一手を考えるための出発点になります。
参考情報
- NVIDIA × Uber Robotaxi Partnership - NVIDIA Newsroom
- NVIDIA L4 Robotaxis on Uber - Uber IR
- DRIVE Hyperion Level 4 - NVIDIA Newsroom
- Alpamayo Launch - TechCrunch
- いすゞ × ティアフォー レベル4バス - いすゞ自動車
- ティアフォー AI自動運転L4 - PR TIMES
- ティアフォー NVIDIA協業 - ビジネス+IT
- DRIVE Hyperion Level 4 日本語 - NVIDIA Japan Blog
