NVIDIAが描く自動運転の未来:レベル2からロボタクシーまで、柔軟なプラットフォーム戦略

テクノロジー News

NVIDIAが描く自動運転の未来:レベル2からロボタクシーまで、柔軟なプラットフォーム戦略
自動運転NVIDIAWaymo

NVIDIAが自動運転技術における多様なアプローチを解説。レベル2向けカメラ中心のシステムから、HDマップを活用したロボタクシーまで、柔軟なプラットフォーム戦略を展開。エンドツーエンド学習と従来の安全性を両立させ、未知の環境への対応能力も向上。自動運転エコシステム全体を支える役割を強調。

まず Waymo 型は、レベル4のロボタクシーとしてLiDARを多数搭載し、さらにHDマップを活用するアプローチである。「HDマップ」を使うことで、「ここは右折専用レーンで幅は何メートル」「ここは自転車レーン」など、道路構造をきわめて詳細に事前把握できる。そのぶん、認識すべき世界がある程度整理され、冗長性も高い。タクシーやバスのように、特定エリア内で高精度な無人運転を目指すには非常に合理的な設計である。一方の Tesla 型は、基本的にカメラ中心で世界を理解しようとする。HDマップやLiDARへの依存を抑え、できるだけ広く一般化可能な知能で運転しようという思想が強い。 エンドツーエンド学習 の色合いも濃く、入力から出力までを統合的に最適化しようとする点が特徴だ。今回のプロダクトはレベル2向けなので、カメラ+レーダーで成立させている。ここではドライバーが関与する前提があるため、このセンサー構成で十分な安全性と実用性を狙う。搭載しているGPUは「Orin」1基だけだ。つまり NVIDIA は「カメラだけが正しい」(テスラ)、「HDマップが必須」(ウェイモ)というどちらかの手法に寄るのではなく、レベル2、レベル4、量産車、ロボタクシーといった目的に応じて、センサー構成とソフトウェア構成を変えられる立場を取っている。 加えて NVIDIA は、自社の役割を完成車メーカーではなく、 自動運転 エコシステムを支えるプラットフォーム提供者として位置づけていた。GPUによる学習計算基盤、シミュレーション、そして自社ソフトウェアスタックを持ち、パートナーはその一部だけを採用することも全部使うこともできる。 Waymo のような企業が NVIDIA のGPUでモデル学習を行うこともあり得るし、メルセデスのように NVIDIA ソフトウェアを量産車に載せることもできる。カメラサプライヤーなども、 NVIDIA の仕様に合っていれば柔軟に選べるという説明だった。この点は、単独で勝つよりも、業界全体の基盤を握る NVIDIA らしい考え方といえる。また、未知の環境での走行についても質問したところ、担当者は、AlpamayoはHDマップに依存しないため、事前に学習していない都市や道路でも走行可能だと説明した。さらに、最近のモデルでは「reasoning(与えられた情報から、状況を理解し、次に何が起きるかを推測して行動を決める能力)」が強化されており、見たことのない状況でも、過去の類似ケースや文脈から適切な行動を推定できるという。これは単なるパターン認識ではなく、「原因と結果の関係を踏まえて行動を選択する」能力であり、 自動運転 AIの次の進化レベルといえる。 一方で、複雑な都市環境や交通ルールの違いなどに対しては、継続的な学習やデータの蓄積が重要であり、完全に未知の環境でも常に最適に走行できる段階にあるわけではないとした。こうした汎用性はまだ発展途上であり、実運用ではデータの蓄積と継続的な改善が不可欠である点も強調された。 ソフトウェア構成としては、担当者はエンドツーエンドモデルとクラシカルスタックを並列に動かしていると説明した。ここが重要で、純粋なエンドツーエンド一本ではなく、従来型のルールベースや幾何ベースの安全処理も併走させながら安全運転を実現しているようだ。つまり、学習ベースの柔軟さと、古典的な安全性の両方を活かす構成である。これは Waymo 型と Tesla 型の“間”というより、両者の長所を取り込もうとする現実解に見える。 また、前述の「reasoning」も強調されていた。担当者によると、最近のAlpamayoは、過去データの模倣だけではなく、見たことのない場面でも推論して対処する能力が伸びてきたという。たとえば未知の挙動をする車がいても、「今までの似た状況」から相手の意図を推定し、どう行動すべきかを考える。これは単なるパターン一致から一歩進み、状況理解と行動予測を伴う 自動運転 AIへ進化しつつあることを示唆している。実装面では、今回の試乗車は市販のメルセデス車両に新しいソフトウェアを載せたもので、ハードウェア自体は量産仕様だ。ユーザーがその車を購入し、将来的にOTAアップデートで機能を受け取る形も想定されている。ここからは、研究デモではなく、量産実装を強く意識した開発であることが分かる。さらに、今回のレベル2デモでは、前述の通り、単一の NVIDIA Orin上で、エンドツーエンドモデル(E2E)とクラシカルスタック(ルールベースで安全基準を遵守)の両方を動かしていると説明された。これはかなり実用志向のメッセージであり、将来のレベル4ではThorを2基使う構成も見込んでいて、アップグレードによる進化も好感を持てた。最後に、日本展開についても聞いた。担当者は東京でのテスト計画に触れ、日本の多車線道路や複雑な分岐、左側通行、高速道路の料金体系などが難所になりうると認めつつも、車線だけでなく他車の動きや道路表示から文脈を理解する今の方式なら、十分に対応可能性があるとの見方を示した。全体を通じて、今回のAlpamayoは、地図に頼り切るのでも、カメラ一本に賭けるのでもなく、量産車に載る現実的な構成で“文脈理解しながら安全に走ることを狙った 自動運転 スタックとして説明した。交差点での停止や発進、右左折、車線変更といった一連の動作は滑らかで、通常の運転時では急な加減速や不自然な挙動はほとんど見られない。むしろ、人間の慎重なドライバーに近い印象だ。一方で急に割り込んできた他車との接触を避けるために避けながら急制動をかける場面があったが、その判断は正しく、人間の熟練ドライバーでもその方法で回避しただろう。 また、特に印象的だったのは、見通しの悪い場面での挙動である。駐車車両などで左右の確認が難しい交差点では、一度完全停止したあと、少しずつ前に出て視界を確保しながら判断する。いわゆる“クリープ”動作だが、その動きは過度に慎重すぎるわけでもなく、かといって強引でもない。カリフォルニアでは特定の交差点で右折する場合、赤信号に従わなくてもよい。左からひっきりなしに来る他車を確認しながら、少しずつ前に出て合流する様子が見られた。周囲の状況をうかがいながら、適切なタイミングで合流する様子は、運転中の人間の動きに非常に近いと感じた。 また、歩行者や周囲車両への反応も興味深い。道路脇に立っている人がわずかに動いただけでも減速するなど、「存在」だけでなく「これからどう動くか」を前提にした運転が行われていることが分かる。単なる物体認識ではなく、状況理解に基づいた判断が働いている印象だ。 さらに、消えかけた車線や複雑なレーン構成、複数の信号が並ぶ交差点といった、人間でも一瞬迷うような場面でも、大きく挙動を乱すことはなかった。完全に完璧というよりは、「迷いながらも安全側に寄せて判断する」ような振る舞いであり、その意味では“考えている”様子が伝わってくる。興味深いのは、こうした挙動が、現在進みつつあるヒューマノイドロボットの開発とも重なる点だ。今回の走行で見られたように、見通しの悪い交差点で少しずつ前に出て確認する、歩行者の動きを予測して減速する、曖昧な車線や環境から進路を推定する、といった挙動は、あらかじめ決められたルールだけでは成立しない。周囲の状況を解釈し、「次に何が起きるか」を推測しながら行動する必要がある。ヒト型ロボットと 自動運転 の技術はまったく違うと思う読者は多いかもしれないが、それは間違いであり、 NVIDIATesla は同じフィジカルAIと捉えている。 自動運転 の技術はまさにヒューマノイドが現実世界で作業する際に求められる能力と同じだ。物体を認識するだけでなく、その物体がどう動くか、環境がどう変化するかを理解し、予想しながら行動する。 NVIDIA が推進する「フィジカルAI」は、こうした共通の課題に対する統合的なアプローチといえる。 自動運転 で培われた認識・予測・意思決定の技術は、ヒューマノイドにも応用され、逆にロボティクスの知見も 自動運転 へとフィードバックされていく。.

まずWaymo型は、レベル4のロボタクシーとしてLiDARを多数搭載し、さらにHDマップを活用するアプローチである。「HDマップ」を使うことで、「ここは右折専用レーンで幅は何メートル」「ここは自転車レーン」など、道路構造をきわめて詳細に事前把握できる。そのぶん、認識すべき世界がある程度整理され、冗長性も高い。タクシーやバスのように、特定エリア内で高精度な無人運転を目指すには非常に合理的な設計である。一方のTesla型は、基本的にカメラ中心で世界を理解しようとする。HDマップやLiDARへの依存を抑え、できるだけ広く一般化可能な知能で運転しようという思想が強い。エンドツーエンド学習の色合いも濃く、入力から出力までを統合的に最適化しようとする点が特徴だ。今回のプロダクトはレベル2向けなので、カメラ+レーダーで成立させている。ここではドライバーが関与する前提があるため、このセンサー構成で十分な安全性と実用性を狙う。搭載しているGPUは「Orin」1基だけだ。つまりNVIDIAは「カメラだけが正しい」(テスラ)、「HDマップが必須」(ウェイモ)というどちらかの手法に寄るのではなく、レベル2、レベル4、量産車、ロボタクシーといった目的に応じて、センサー構成とソフトウェア構成を変えられる立場を取っている。 加えてNVIDIAは、自社の役割を完成車メーカーではなく、自動運転エコシステムを支えるプラットフォーム提供者として位置づけていた。GPUによる学習計算基盤、シミュレーション、そして自社ソフトウェアスタックを持ち、パートナーはその一部だけを採用することも全部使うこともできる。Waymoのような企業がNVIDIAのGPUでモデル学習を行うこともあり得るし、メルセデスのようにNVIDIAソフトウェアを量産車に載せることもできる。カメラサプライヤーなども、NVIDIAの仕様に合っていれば柔軟に選べるという説明だった。この点は、単独で勝つよりも、業界全体の基盤を握るNVIDIAらしい考え方といえる。また、未知の環境での走行についても質問したところ、担当者は、AlpamayoはHDマップに依存しないため、事前に学習していない都市や道路でも走行可能だと説明した。さらに、最近のモデルでは「reasoning(与えられた情報から、状況を理解し、次に何が起きるかを推測して行動を決める能力)」が強化されており、見たことのない状況でも、過去の類似ケースや文脈から適切な行動を推定できるという。これは単なるパターン認識ではなく、「原因と結果の関係を踏まえて行動を選択する」能力であり、自動運転AIの次の進化レベルといえる。 一方で、複雑な都市環境や交通ルールの違いなどに対しては、継続的な学習やデータの蓄積が重要であり、完全に未知の環境でも常に最適に走行できる段階にあるわけではないとした。こうした汎用性はまだ発展途上であり、実運用ではデータの蓄積と継続的な改善が不可欠である点も強調された。 ソフトウェア構成としては、担当者はエンドツーエンドモデルとクラシカルスタックを並列に動かしていると説明した。ここが重要で、純粋なエンドツーエンド一本ではなく、従来型のルールベースや幾何ベースの安全処理も併走させながら安全運転を実現しているようだ。つまり、学習ベースの柔軟さと、古典的な安全性の両方を活かす構成である。これはWaymo型とTesla型の“間”というより、両者の長所を取り込もうとする現実解に見える。 また、前述の「reasoning」も強調されていた。担当者によると、最近のAlpamayoは、過去データの模倣だけではなく、見たことのない場面でも推論して対処する能力が伸びてきたという。たとえば未知の挙動をする車がいても、「今までの似た状況」から相手の意図を推定し、どう行動すべきかを考える。これは単なるパターン一致から一歩進み、状況理解と行動予測を伴う自動運転AIへ進化しつつあることを示唆している。実装面では、今回の試乗車は市販のメルセデス車両に新しいソフトウェアを載せたもので、ハードウェア自体は量産仕様だ。ユーザーがその車を購入し、将来的にOTAアップデートで機能を受け取る形も想定されている。ここからは、研究デモではなく、量産実装を強く意識した開発であることが分かる。さらに、今回のレベル2デモでは、前述の通り、単一のNVIDIA Orin上で、エンドツーエンドモデル(E2E)とクラシカルスタック(ルールベースで安全基準を遵守)の両方を動かしていると説明された。これはかなり実用志向のメッセージであり、将来のレベル4ではThorを2基使う構成も見込んでいて、アップグレードによる進化も好感を持てた。最後に、日本展開についても聞いた。担当者は東京でのテスト計画に触れ、日本の多車線道路や複雑な分岐、左側通行、高速道路の料金体系などが難所になりうると認めつつも、車線だけでなく他車の動きや道路表示から文脈を理解する今の方式なら、十分に対応可能性があるとの見方を示した。全体を通じて、今回のAlpamayoは、地図に頼り切るのでも、カメラ一本に賭けるのでもなく、量産車に載る現実的な構成で“文脈理解しながら安全に走ることを狙った自動運転スタックとして説明した。交差点での停止や発進、右左折、車線変更といった一連の動作は滑らかで、通常の運転時では急な加減速や不自然な挙動はほとんど見られない。むしろ、人間の慎重なドライバーに近い印象だ。一方で急に割り込んできた他車との接触を避けるために避けながら急制動をかける場面があったが、その判断は正しく、人間の熟練ドライバーでもその方法で回避しただろう。 また、特に印象的だったのは、見通しの悪い場面での挙動である。駐車車両などで左右の確認が難しい交差点では、一度完全停止したあと、少しずつ前に出て視界を確保しながら判断する。いわゆる“クリープ”動作だが、その動きは過度に慎重すぎるわけでもなく、かといって強引でもない。カリフォルニアでは特定の交差点で右折する場合、赤信号に従わなくてもよい。左からひっきりなしに来る他車を確認しながら、少しずつ前に出て合流する様子が見られた。周囲の状況をうかがいながら、適切なタイミングで合流する様子は、運転中の人間の動きに非常に近いと感じた。 また、歩行者や周囲車両への反応も興味深い。道路脇に立っている人がわずかに動いただけでも減速するなど、「存在」だけでなく「これからどう動くか」を前提にした運転が行われていることが分かる。単なる物体認識ではなく、状況理解に基づいた判断が働いている印象だ。 さらに、消えかけた車線や複雑なレーン構成、複数の信号が並ぶ交差点といった、人間でも一瞬迷うような場面でも、大きく挙動を乱すことはなかった。完全に完璧というよりは、「迷いながらも安全側に寄せて判断する」ような振る舞いであり、その意味では“考えている”様子が伝わってくる。興味深いのは、こうした挙動が、現在進みつつあるヒューマノイドロボットの開発とも重なる点だ。今回の走行で見られたように、見通しの悪い交差点で少しずつ前に出て確認する、歩行者の動きを予測して減速する、曖昧な車線や環境から進路を推定する、といった挙動は、あらかじめ決められたルールだけでは成立しない。周囲の状況を解釈し、「次に何が起きるか」を推測しながら行動する必要がある。ヒト型ロボットと自動運転の技術はまったく違うと思う読者は多いかもしれないが、それは間違いであり、NVIDIAやTeslaは同じフィジカルAIと捉えている。自動運転の技術はまさにヒューマノイドが現実世界で作業する際に求められる能力と同じだ。物体を認識するだけでなく、その物体がどう動くか、環境がどう変化するかを理解し、予想しながら行動する。 NVIDIAが推進する「フィジカルAI」は、こうした共通の課題に対する統合的なアプローチといえる。自動運転で培われた認識・予測・意思決定の技術は、ヒューマノイドにも応用され、逆にロボティクスの知見も自動運転へとフィードバックされていく。

We have summarized this news so that you can read it quickly. If you are interested in the news, you can read the full text here. Read more:

responsejp /  🏆 56. in JP

自動運転 NVIDIA Waymo Tesla AI エンドツーエンド学習

 

United States Latest News, United States Headlines

Similar News:You can also read news stories similar to this one that we have collected from other news sources.

NVIDIA、幅広い業界のサポートを得て Vera Rubin DSX AI ファクトリー リファレンス デザインと Omniverse DSX Digital Twin BlueprintをリリースNVIDIA、幅広い業界のサポートを得て Vera Rubin DSX AI ファクトリー リファレンス デザインと Omniverse DSX Digital Twin BlueprintをリリースNVIDIA、幅広い業界のサポートを得て Vera Rubin DSX AI ファクトリー リファレンス デザインと Omniverse DSX Digital Twin Blueprintをリリース NVIDIAのプレスリリース
Read more »

日産やいすゞなどの大手自動車メーカー、レベル4自動運転車開発に採用…エヌビディア DRIVE Hyperion日産やいすゞなどの大手自動車メーカー、レベル4自動運転車開発に採用…エヌビディア DRIVE Hyperionエヌビディアは、同社の自動運転プラットフォーム「NVIDIA DRIVE Hyperion」の採用が世界的に拡大していると発表した。BYD、Geely、いすゞ自動車、日産自動車などの大手自動車メーカーが、このプラットフォームを使ってレベル4対応の自動運転車両を開発している。
Read more »

AgoraとSeeed Studio、NVIDIA GTC 2026にてReachy Miniを活用した音声ネイティブ・エンボディドAIの推進に向け提携AgoraとSeeed Studio、NVIDIA GTC 2026にてReachy Miniを活用した音声ネイティブ・エンボディドAIの推進に向け提携AgoraとSeeed Studio、NVIDIA GTC 2026にてReachy Miniを活用した音声ネイティブ・エンボディドAIの推進に向け提携
Read more »

NVIDIA、OpenClaw コミュニティ向けに NemoClaw を発表NVIDIA、OpenClaw コミュニティ向けに NemoClaw を発表プレスリリース NVIDIA、OpenClaw コミュニティ向けに NemoClaw を発表
Read more »

NVIDIA GTC 2026「Startup and VC Reception」に、Final Aim 代表取締役社長の朝倉が登壇NVIDIA GTC 2026「Startup and VC Reception」に、Final Aim 代表取締役社長の朝倉が登壇NVIDIA GTC 2026「Startup and VC Reception」に、Final Aim 代表取締役社長の朝倉が登壇 株式会社 Final Aimのプレスリリース
Read more »

DataRobotとNebius、NVIDIA AI インフラストラクチャ上でエンタープライズAIエージェントの「大規模な本番運用」実現に向けた戦略的提携を発表DataRobotとNebius、NVIDIA AI インフラストラクチャ上でエンタープライズAIエージェントの「大規模な本番運用」実現に向けた戦略的提携を発表DataRobotとNebius、NVIDIA AI インフラストラクチャ上でエンタープライズAIエージェントの「大規模な本番運用」実現に向けた戦略的提携を発表 DataRobot, Inc.のプレスリリース
Read more »



Render Time: 2026-05-11 21:51:29