タグ: エヌビディア(NVIDIA)

  • マイクロソフト独自AIチップMaia200を発表

    マイクロソフト独自AIチップMaia200を発表

    マイクロソフトは、Maia 200という新しいAIチップを発表しました。

    NVIDIAへの依存を低減し、コスト効率を向上させることを目的としています。マイクロソフトはこれをAzureクラウドで活用し、一部タスクではAmazonやGoogleの競合チップを上回る性能を主張しています。

    ポイント

    1. Maia 200は、AIモデルのトレーニングではなく推論(訓練済みモデルを実際のクエリに適用する段階)に最適化されたアクセラレータ
    2. マイクロソフトの前世代Maia 100からの進化版で、特定のワークロードではAmazonのTrainium 3世代比で3倍の性能向上を主張
    3. カスタムシリコンは、汎用GPU(NVIDIAのH100/Blackwellなど)と比べて電力効率が高く、Azureのデータセンター統合に適する
    4. 一方、NVIDIAのCUDAエコシステムほどの柔軟性や広範なソフトウェアサポートはないため、推論特化型として位置づけられる

    全体として、AIインフラの「垂直統合」が進んでいて、ビッグテックが自社ワークロードに合わせたチップを設計するトレンド(Google TPU、Amazon Inferentia、Meta MTIAなど)を加速することになりそうです。

    ニュース深掘り

    ここからは、このニュースをビジネス面で深掘りしていきます。

    戦略的・ビジネス的視点

    マイクロソフトの今回のチップ開発における最大の動機は、コストコントロールとサプライチェーンリスク低減といえます。

    AIブームでNVIDIAのGPU需要が爆発し、価格高騰・供給不足が発生しています。

    そんな中、OpenAIのような大規模顧客向けに自社チップを使うことで、30%以上のコスト効率向上を実現可能とされていて、これはAzureの競争力を強化します。
    将来的にMaia 200を外部顧客に開放すれば、新たな収益源にもなります。

    一方、リスクもあります。自社チップ開発には巨額投資が必要で、性能が期待を下回ればNVIDIA依存が続く可能性があります。

    実際、トレーニング分野ではまだNVIDIAの優位性が揺るぎません。

    市場的・競争的視点

    現在、NVIDIAのシェアは現在80-90%超ですが、Maia 200のような動きが続けば、価格競争が激化し、エンドユーザー(企業)にとってはコスト低下の恩恵が期待できます。

    競合では、AmazonのTrainium/Inferentia、GoogleのTPU v5、さらには新興のGroqやCerebrasなどが台頭しています。

    結果として、AIハードウェア市場は「NVIDIA一強」から「多極化」へ移行し、イノベーションが加速するでしょう。

    ただし、短期的にNVIDIAの株価に悪影響を与える可能性は低いです。マイクロソフト自身もトレーニングではNVIDIAチップを大量購入しており、完全な「脱NVIDIA」ではないからです。

    今後、Maia200の性能を実際に確認しながら、投資対効果が見合い、使えそうであれば置き換えていく、と言う流れになりそうです。

    倫理的・社会的視点

    ビッグテックの垂直統合が進むと、チップ設計・製造の力が少数の巨大企業に集中し、新規参入障壁が高まるリスクがあります。

    また、地政学的にはTSMC依存が続くため、サプライチェーン全体の脆弱性は解消されていません。

    AI開発を行う企業では、ビジネスへの影響

    自動運転や創薬、新素材開発など、さまざまな分野でAIを活用した研究開発が進んでいる状況で、AI開発を行なっている企業においては、良くも悪くもNVIDIAに依存していればよかったという状況が崩れてきています。

    リソースの分散、多能化などを考えると、(コストを度外視すれば)NVIDIA一強の方が楽ではあるのですが、そうも言ってはいられません。

    そこで、ここからは、この発表に対するAI開発を行う企業への影響を解説します。

    インフラの多角化を急ぐ必要あり

    NVIDIA一辺倒ではなく、Azure Maia、AWS Inferentia、Google TPUなど複数プロバイダーを評価した方が良いと思われます。

    なぜなら、ワークロードに応じて最適な組み合わせを選ぶことで、コストを20-40%削減できる可能性があるからです。

    長期契約の見直しを検討すべき

    GPU供給不足が続く中、クラウドベンダーのカスタムチップ移行が進むと価格変動が起きやすいです。

    1-2年単位でベンダー比較を行い、ロックインを避ける柔軟な契約を優先してください。

    自社AI戦略の再検討

    大企業であれば、カスタムチップやFPGAの導入を検討する価値があると思われます。

    中小企業は、Maia 200のような推論特化チップが開放されたタイミングで、Azure移行を視野に入れてみると良いでしょう。

    推論コストが支配的になる生成AI時代では、ここが最大の節約ポイントとなるはずです。

    人材・スキル投資の必要性

    AI開発を行なっている企業は、NVIDIA CUDA中心のスキルセットだけでなく、ONNXやTriton Inference Serverなどのマルチプラットフォームに対応した人材を確保してください。

    チップ多様化時代に入ったとき、適応力が競争優位性になります。

    リスクヘッジを忘れずに

    地政学リスク(台湾有事など)を考慮し、複数リージョンのクラウド分散やオンプレミス回帰も選択肢に含めてビジネスを進めることが重要になるでしょう。

  • 富士通、セキュアな自動化を可能にするマルチAIエージェントフレームワークを始めとするPhysical AI技術を公開

    富士通、セキュアな自動化を可能にするマルチAIエージェントフレームワークを始めとするPhysical AI技術を公開

    富士通株式会社は、NVIDIAの技術を活用し、Physical AIやAIエージェントをシームレスに連携させる新技術「Fujitsu Kozuchi Physical AI 1.0」を開発したと発表した。

    この技術は、同社のAIプラットフォーム「Fujitsu Kozuchi」と、NVIDIAのソフトウェアスタックを統合したものだ。

    中核となる「マルチAIエージェントフレームワーク」は、ビジュアルなインターフェース上で業務フローを設計でき、同社の大規模言語モデル(LLM)「Takane」や特化型AIを自動的に組み合わせて最適なソリューションを構築する。

    また、「セキュアエージェントゲートウェイ」の実装により、異なるベンダーが開発したAIエージェント同士を連携させる際、企業の機密情報やプライバシー情報を保護しながらデータをやり取りすることが可能となる。

    今回、第一弾として公開されたのは、購買部門における調達業務を支援する特化型AIエージェントだ。「帳票理解」「購買規約解析」「適合チェック」に特化した3つのAIエージェントが協調して動作する。

    具体的には、複雑な帳票を構造化データに変換し、AIが生成したチェック用プロンプトを用いて規約への適合性を自動判定する。適合チェックされた見積依頼は、セキュアエージェントゲートウェイを介して機密情報などが記載されていないかを確認し、社外の発注先へと送信されるというものだ。

    富士通、セキュアな自動化を可能にするマルチAIエージェントフレームワークを始めとするPhysical AI技術公開
    マルチAIエージェントフレームワークによる調達業務ワークフローの構築イメージ

    なお、同社の実証実験では、これらのエージェントを導入した結果、発注確認業務にかかる工数を約50%削減できる効果が確認された。

    また、NVIDIA NIMマイクロサービスの活用により推論速度も50%向上しており、1日数百件に及ぶ規約チェック業務の高速化を実現しているのだという。

    富士通は、今回の技術をベースに、2025年度中にAIが自律的に学習・進化する機能の実装を目指すとしている。

    さらに今後は、デジタル空間だけでなく、物理的なロボットが現実世界で作用する「Physical AI」領域へと適用範囲を拡大し、AIエージェントとロボットが高度に協調する社会システムの構築を推進していく方針だ。

  • エヌビディアが切り拓く「知能を民主化」する世界 ーCES2026レポート2

    エヌビディアが切り拓く「知能を民主化」する世界 ーCES2026レポート2

    CES2026レポートの第二弾はエヌビディアだ。

    昨年キーノートに登壇したジェンスン・ファンCEOだが、今年はプライベートイベントということで、会場とは異なるホテルで開催された。

    ただ、多くのキーノートでジェンスン・ファンは登場し、特にフィジカルAIのテーマではエヌビディアが中心であるという印象を持たざるを得ない状況にもなった。

    今回の講演における話題は、その「フィジカルAI」と呼ばれる、ロボティクスや自動運転カーなどで使われるAIの領域の話題と、Vera Rubinと呼ばれる、データセンター用のGPUや周辺のネットワークデバイスなどの2つだ。

    フィジカルAIは昨年来エヌビディアが推している領域ではあるが、市場の期待はまだまだデータセンター、すなわち、いわゆる生成AIなど向けのチップの製造や販売状況であるといえる。

    しかし、今後数年かけてロボティクスにおける知能向上が進むと見られていて、こちらは具体的な利用例が増えてくることが待たれている。

    現実世界を理解し、思考する「フィジカルAI」

    NVIDIAが他社と明確に差別化している最大の領域が、デジタルな知能を現実の物理世界へと拡張する「フィジカルAI」だ。

    ジェンスン・ファン氏はこれを「ロボティクスにとってのChatGPTが生まれた瞬間」と表現した。

    物理法則を学ぶ「3つのコンピューター」

    AIが現実世界で活動するには、重力や摩擦、因果関係といった「世界の常識」を理解しなければならない。

    そこで、これらを実現するために、NVIDIAは3つの異なるコンピューター・アーキテクチャを統合している。

    1. トレーニング・インフラ(NVIDIA DGX): 大規模なAIモデルを訓練
    2. シミュレーション(NVIDIA Omniverse): 物理法則に基づいた仮想空間でAIをテスト・検証
    3. 推論・実行(NVIDIA DRIVE / Jetson): 車両やロボット内部でリアルタイムに動作

    世界基盤モデル「NVIDIA Cosmos」

    しかし、これらがあったとしても、実際の世界を訓練しようと思うと、相当な時間とシーンが必要になる。

    例えば、大雨が降っている場合、氷で道路が滑る場合、ドライブスルーで注文をして受け取る場合、など、日常生活には様々なシーンが存在する。

    これらのすべてを何回もテストすることが現実的に不可能だ。

    そこで、こういった物理世界をテストするために生まれたのが、「Cosmos」と呼ばれるオープンな世界基盤モデルだ。

    現実世界のデータ収集はコストがかかり困難だが、Cosmosは物理的に正確な「合成データ」を生成することができる。

    CES2026 NVIDIA Cosmos
    Cosmosの概念図

    この合成データを活用することで、現実世界へのシミュレーションを行うことが可能になるのだ。

    ロボットや自動運転車は仮想空間で数十億マイルもの試行錯誤を事前に行うことが可能になる。

    推論型自動運転AI「Alpamayo(アルパマヨ)」

    そして、この技術の集大成として発表されたのが、世界初の思考・推論型自動運転AI「Alpamayo」だ。

    CES2026 NVIDIA Alpamayo
    Alpamayoの概念図

    Alpamayoは、従来のAIのように単にパターンを認識するのではなく、カメラからの入力から、車の操作までのすべてを訓練されていて、人間のように「なぜその操作を行うのか」を思考し、言葉で説明することができる推論能力を持つという。

    現在、アルパマヨのスタックを搭載した新型メルセデス・ベンツCLAは、NCAPで世界最高の安全評価を獲得し、第一四半期に米国で、第二四半期に欧州で順次リリースされているということだ。

    CES2026 NVIDIA Mercedes Benz CLA

    CES2026 NVIDIA Mercedes Benz CLA
    サンフランシスコ市内を走るデモンストレーション

    また、エンドツーエンドのAIスタックに加え、「NVIDIA Halos」安全システムに基づく従来の安全スタックを並行稼働させることで、絶対的な冗長性と信頼性を確保している。

    CES2026 すでに多くの車メーカーとエコシステムを構築しつつある

    ジェンスン・ファン氏は、向こう10年で、自動運転が一般的になるとし、その際は、オープンソースとして開発している、Alpamayoが世界の様々な地域での自動運転技術を支えることになるだろう。

    これまでは、TeslaやWaymoといった先行して実証実験を行う車が話題となっていたが、今回メルセデスという一般の方にもよく知られているメーカーの車が対応するということで、一気に自動運転の市場がひらけてくる可能性があると感じた。

    ロボティクスの未来と産業のデジタルツイン

    ここで、Jetsonを搭載し、Omniverseで訓練されたロボットを壇上で紹介した。

    CES2026 NVIDIA の技術で動くロボットたち

    LG、キャタピラー、ボストン・ダイナミクス、ユニバーサル・ロボティクスなど、信じられないほど多くのパートナーがロボットを構築しているという。

    本当に多くのロボットがエヌビディアの技術に支えられて動いていることがわかる。

    AIが大きなテーマとなった今回のCESでも、LGやボストンダイナミクスの人型ロボットが話題となったし、キーノートを務めたシーメンスやキャタピラーなどの企業もエヌビディアの技術を使って物理世界をインテリジェントにしようとしていた。

    さらに、フィジカルAIは設計・製造業界も変える。

    ケイデンス、シノプシス、そしてシーメンスとの提携によって、チップの設計から工場のライン構築、運用のデジタルツインまで、すべてがエヌビディアの技術で加速される。

    CES2026 NVIDIA ロボットエコシステム
    CES2026 NVIDIA ロボットエコシステム

    今回紹介された小型ロボットなども、コンピュータの中で設計され、コンピュータの中で製造・テストされ、デジタルツイン上で完璧な状態にされるのだ。

    CES2026で紹介されたロボットたち

    エージェント型AIを加速させる次世代プラットフォーム「Vera Rubin」の近況

    テクノロジーとしての面白みがあるのがフィジカルAIだとして、実需用として興味があるのは、今後、貪欲な生成AIニーズがおさまることを知らないのか?そして、そのニーズに対応できるのか?という点だ。

    ビッグテックはじめ、多くの企業で今まさに取り組んでいる生成AIへの対応だが、期待が高かった一方で「単なるバブルだったのではないか?」という懸念を言う人もいる。

    しかし、AIの需要は凄まじいものがあり、毎年そのモデルサイズは10倍に、AIが考えることに使われるトークンは5倍に、そしてコストは1/10倍になっているという。

    CES2026 NVIDIA AI Computingに対する要求
    AIコンピューティングに対する要求

    ジェンセン・ファンCEOによると、AIの進化は「単発の回答」から、時間をかけて思考する「推論」へと移行したことで、計算需要は爆発的に増加していまるのだという。

    そして、これに応えるのが、最新プラットフォーム「Vera Rubin」なのだ。

    エヌビディアは、昨年、現行のGrace Blackwellの後継となる、Vera Rubinを発表していた。その際、Rubinは2026年にはリリースするというマイルストーンを示していて、年が開けて初めの講演でジェンセン・ファンCEOがこの計画がどうなっていると発言されるのかが注目されていた。

    それに関して、今回の講演では、「すでに製造が開始されている」ことを発表した。

    6つのチップによる「極限の協調設計」

    Vera Rubinは、CPU、GPU、スイッチなど6つの異なるチップが最初から一つのシステムとして動作するように「極限の協調設計」がされている。

    Vera CPU

    前世代比で電力効率を維持しつつ、性能を2倍に向上。88個の物理コア(176スレッド)を搭載した、AIファクトリー向けに最適化されたCPU。

    CES2026 NVIDIA Vera Rubin Vera CPU

    Rubin GPU

    Blackwellの1.6倍のトランジスタを搭載しながら、推論性能は5倍に達する。これを支える「MV-FP4 Tensorコア」は、プロセッサ内部で精度を動的に調整し、スループットを最大化する。

    CES2026 NVIDIA Vera Rubin Rubin GPU

    ネットワーク(NVLink, Spectrum-X)

    毎秒3.6TBの帯域幅を持つ第6世代NVLinkや、シリコンフォトニクス技術をチップに直結したSpectrum-Xスイッチにより、インターネット全体の帯域幅を超えるデータ転送を実現。

    CES2026 NVIDIA Vera Rubin Spectrum-X

    CES2026 NVIDIA Vera Rubin Spectrum-X

    ストレージ(Dynamo KVキャッシュ)

    エージェント型AIが長時間の対話や調査を行う際、最大のボトルネックとなるのがキャッシュの容量だ。NVIDIAは「BlueField-4 DPU」を活用し、新たなストレージ層を構築した。

    CES2026 NVIDIA Vera Rubin Dynamo KVキャッシュ

    イーサーネットスイッチ

    シリコンフォトニクス技術を使い、新しく開発されたSpectrum-Xは、200Gビット/秒の通信を512ポートで実現する。

    CES2026 NVIDIA Vera Rubin Spectrum-X

    配線のないトレイ

    これまで、GPUのトレイにはボード間を繋ぐケーブルがあったが、今回からケーブルレスのトレイとなった。

    スピードを考えるとこの構成が最も早くなることはいうまでもない。

    CES2026 NVIDIA Vera Rubin

    このトレイの中に様々な新しいチップが格納され、それ同士が繋がり、データセンターに格納されるのだ。

    トレイへの収納作業もBlackwellの時は2時間以上かかっていたのが、Rubinだと5分で完了するとのことだ。

    KVキャッシュ

    実際に、AIと様々なやりとりをする中で、やり取りの記憶を残して欲しいと思うことがある。

    しかし、これを完全に行おうとすると処理がパンクしてしまい、AIが処理を上手く捌けないという問題が起きる。

    こういった経験はよくあることだが、これに対応するために、新しいKVキャッシュをBluefield4を活用した「ラック内KVキャッシュストレージ」を導入しした。

    各Bluefield4の背後には150テラバイトの文脈メモリが接続されており、システム全体で各GPUに追加の16テラバイトのメモリが割り当てられる。

    GPU単体では約1テラバイトの内部メモリしか持たないのだが、この補助記憶装置により、16倍の拡張が実現するということだ。

    CES2026 NVIDIA Vera Rubin

    実際のデータセンターに設置される際は、上の写真のように、1152個のGPUが16個のラックに格納され、各ラックには、72個のRubinが入るのだということだ。

    この機構によって、電力は約6%低減され、また、GPUやCPUなど書く演算チップ間のデータ秘匿性も実現され、企業での利用においても安心して使える。

    圧倒的な経済性と効率を見せるパフォーマンス

    今回のVera Rubinの発表を見ていると、単にGPUがスピードアップしたというよりは、AIが動くための環境全体を刷新したイメージを持った方が多いのではないだろうか。

    ジェンスン・ファン氏によると、そうでもしない限り、AIの需要には対応できないから、ということなのだが、それをこの短期間で実現したエヌビディアの力が恐ろしい。

    CES2026 NVIDIA Vera Rubin Performance
    緑がBlackwell, 黄色がRubinのパフォーマンス

    こうやって組み上がったシステムにより、Vera Rubinは、Blackwell世代と比較して、MoE(Mixture of Experts)モデルの訓練に必要なGPU数を4分の1に削減し、AIファクトリーのスループットは10倍に、トークン生成コストを10分の1にまで引き下げるのだ。

    CES2026 エヌビディアの新しいAIデータセンタープラットフォーム
    左がRubin、右がBlackwell

    エヌビディアが切り拓く「知能の民主化」

    エヌビディアの差別化は、チップ単体ではなく、「チップ、インフラ、モデル、シミュレーション、アプリケーション」の5層すべてを垂直統合しつつ、それらをオープンに提供している点にある。

    Physical AI Open Datasetの公開や、アルパマヨ・モデルのオープンソース化により、あらゆる企業や研究者がNVIDIAの強力な基盤を利用できるようになってきた。

    今後もしばらくはエヌビディア一強の時代が続くと思わざるを得ない講演だった。

  • マクニカ、NVIDIA開発環境上でのAIエージェントやPhysical AIの事前検証環境を提供

    マクニカ、NVIDIA開発環境上でのAIエージェントやPhysical AIの事前検証環境を提供

    近年、生成AIの進化により、人間のように自律的に動く「AIエージェント」や、ロボットなどの現実世界で機能する「Physical AI」が注目を集めいている。

    これらの開発には高性能なコンピューティング能力が不可欠であり、NVIDIAのBlackwellアーキテクチャのような高性能GPUへの期待が高まっている。

    しかし、多くの企業が、高価なハードウェアへの初期投資や、導入効果の予測が難しいといった課題に直面し、AIの本格導入に踏み切れないのが現状だ。

    こうした中、株式会社マクニカは、NVIDIA開発環境上で最新のAI技術を試せる「AI TRY NOW PROGRAM」に「DGX B200」を追加し、AIエージェントやPhysical AIの事前検証環境の提供を開始した。

    今回追加された「DGX B200」は、企業がAIを開発・運用するための「NVIDIA NeMo」や「NVIDIA NIM」「NVIDIA Cosmos」といった技術を活用し、AIエージェントやPhysical AIのPoC(概念実証)を行えるものだ。

    開発者はGPU環境を用意する必要なく、複雑なAIモデルのトレーニングとテストを行うことができる。

    例えば、「NVIDIA DGX B200」上で「NeMo Agent Toolkit」や「NIM」などを用いてAIエージェントを立ち上げ、APIによりプロンプトを送ることで、AIエージェントからレポートを受け取るといった一連の検証を実施することが可能だ。

    マクニカ、NVIDIA開発環境上でのAIエージェントやPhysical AIの事前検証環境を提供
    RAGとWeb Searchを組み込んだAIエージェントの検証構成

    また、Physical AI向けの検証も「AI TRY NOW PROGRAM」で試すことができる。

    実際にPhysical AIを検討する際に、「NVIDIA Cosmos」で生成した合成データ(動画データ)でモデルの学習を実施し、「NVIDIA Omniverse」環境上でシミュレーションするといったパイプラインの検証を実施するようなユースケースにも対応している。

    マクニカ、NVIDIA開発環境上でのAIエージェントやPhysical AIの事前検証環境を提供
    Physical AI向けのNVIDIA Cosmos、Omniverseの検証

    なおマクニカでは、実際にCosmos-Transfer1を用いて動画データ、セグメンテーションデータにプロンプトによる指示を加えることで、Physical AIのモデル学習向け合成データを生成する検証を実施したとのことだ。(トップ画)

  • SiemensとNVIDIA 、製造業におけるAI機能強化へ向けパートナーシップを拡大

    SiemensとNVIDIA 、製造業におけるAI機能強化へ向けパートナーシップを拡大

    SiemensとNVIDIAは、グローバルな製造業向けに、産業用AIを牽引する事業提携を強化すると発表した。

    今回の協業で、NVIDIAのAIとアクセラレーテッドコンピューティングを、Siemens Xceleratorプラットフォームおよび製品と接続し、AIを活用した未来の工場の実現を目指す。

    両社はすでに、2022年にSiemens Xceleratorポートフォリオの技術をNVIDIA Omniverseプラットフォームに接続することで、産業用メタバースを実現するためのパートナーシップを発表している。

    その後、このパートナーシップは、生成 AI、産業用 AI、ロボティクス分野におけるコラボレーションとともに拡大されている。

    今年初めに発表された「Teamcenter Digital Reality Viewer」は、製品ライフサイクル管理に基づく可視化において進化を遂げている。

    これにより、リアルタイムレイトレーシング機能が「Teamcenter」に直接組み込まれ、企業は自社製品のフォトリアルな物理ベースのデジタルツインをシ可視化し、相互作用できるようになり、より迅速かつ情報に基づいた意思決定が可能になる。

    すでに造船会社のHD現代は、この機能を活用して水素およびアンモニア燃料船の可視化を実現しているのだという。生成AIにより設計反復時間を数日から数時間に短縮しながら、数百万の部品をリアルタイムで管理している。

    顧客は、NVIDIA Blackwell GPUとSiemensの計算流体力学ソフトウェア、Simcenter Star-CCM+を組み合わせることで、高速化された仮想シミュレーションとテストが可能になる。

    例えば、NVIDIA BlackwellとNVIDIA CUDA-Xライブラリによって高速化されたSimcenter Star-CCM+ソフトウェアを使用して、BMW GroupとSiemensは、車両全体ジオメトリの過渡空力シミュレーションで30倍の高速化を達成し、エネルギー消費とコストを削減しながら車両の空力シミュレーションを高速化した。

    また、SiemensとNVIDIA は、工場の運営方法も再定義している。NVIDIA GPUに対応した新しいSiemensの産業用PCは、AI搭載の産業用コンピューティングを実現し、熱、ほこり、振動に耐えながら常時稼働が可能だ。

    これらは、AIベースのロボティクスから品質検査、予知保全といった、複雑な産業自動化タスクを可能にし、AIの実行速度を25倍高速化する。

    さらに、AIエージェントがSiemens Industrial Copilotポートフォリオ全体で機能し、人間の介入なしでAIを活用したプロセス全体を実行する。

    なお、Industrial Copilot for Operationsは、製造現場のオペレータに生成AIを提供し、NVIDIA RTX PRO 6000 Blackwell Server Edition GPUを搭載したオンプレミスで動作するように最適化されている。

    また、Operations Copilotは、NVIDIA NeMoマイクロサービスとNVIDIA AI Blueprintを活用し、ビデオの検索と要約を行うことで、製造現場の運用にリアルタイムのAIによる支援を提供し、事後対応のメンテナンス時間を30%削減するとのことだ。

    さらに、製造業者に産業システム全体の360度可視化と、強化されたサイバーセキュリティ運用を提供するために、SiemensはNVIDIAと協力し、NVIDIA BlueField DPU を統合することで、新しいクラスの運用技術(OT)サイバーセキュリティを開拓しているという。

    これは、AI駆動のサイバーセキュリティの実現を目指し、アクセラレーテッド コンピューティングを活用する。

    NVIDIAの創業者兼CEOである ジェンスン フアン氏は、「現代の製造業は、効率と品質の向上、変化する市場ニーズに迅速に対応するというプレッシャーに直面している。Siemensとのパートナーシップは、NVIDIAのAIとアクセラレーテッド コンピューティングを企業に提供し、産業用AIの次なる波に新たな機会を創出する」と述べている。

    一方、Siemens AGの社長兼CEOであるRoland Busch氏は、「AIは製造業とインフラを根本から変革している。過去3年間にわたり、私たちは AI モデルとハイパフォーマンスコンピューティングを産業データとドメインノウハウに統合するために緊密に協力してきた。SiemensとNVIDIAは、あらゆる業界の企業が物理世界におけるAIのスケール効果の恩恵を受けられるように支援している」とコメントしている。

  • NVIDIA、世界のコンピュータメーカと協業しAI に特化したパーソナルコンピューティングシステムを発表

    NVIDIA、世界のコンピュータメーカと協業しAI に特化したパーソナルコンピューティングシステムを発表

    NVIDIAは本日、年次イベントCOMPUTEXにおいて、Acer、ASUS、Dell Technologies、GIGABYTE、HP、Lenovo、MSIといった台湾の主要システムメーカが、「NVIDIA DGX Spark」および「DGX Station」システムを構築・提供することを発表した。

    「DGX Spark」は、NVIDIA GB10 Grace Blackwell Superchipと第5世代Tensorコアを搭載し、最大1ペタフロップスのAIコンピューティング性能と128GBの統合メモリを提供する個人用AIスーパーコンピュータだ。

    作成したAIモデルは、「NVIDIA DGX Cloud」や各種アクセラレーテッドクラウド、データセンターインフラへエクスポートすることができる。

    一方「DGX Station」は、要求の厳しいAIワークロード向けに設計されており、「NVIDIA GB300 Grace Blackwell Ultra Desktop Superchip」を搭載している。

    最大20ペタフロップスのAIパフォーマンスと784GBの統合システムメモリを提供するほか、システムには、最大800Gb/sのネットワーク速度をサポートする「NVIDIA ConnectX-8 SuperNIC」も含まれている。

    この「DGX Station」は、ローカルデータを用いた高度なAIモデルの実行や、複数ユーザ向けのオンデマンド型集中コンピューティングノードとして機能する。

    また、NVIDIAのマルチインスタンスGPUにより、GPUを最大7つの独立したインスタンスに分割可能で、それぞれが専用の高帯域幅メモリ、キャッシュ、コンピューティングコアを持つ。これにより、データサイエンスやAI開発チームの個人用クラウドとしての活用が見込まれている。

    そして、「DGX Spark」と「DGX Station」は、産業用AIファクトリーを支える共通のソフトウェアアーキテクチャを備えている。

    どちらのシステムも、最新のNVIDIA AIソフトウェアスタックで事前構成されたNVIDIA DGXオペレーティングシステムを採用し、NVIDIA NIMマイクロサービスやNVIDIA Blueprintへのアクセスが含まれている。

    これにより、開発者はPyTorch、Jupyter、Ollamaといった一般的なツールを使用し、プロトタイプ作成、ファインチューニング、推論をローカル環境で実行し、DGX Cloudやアクセラレーテッドデータセンター、クラウドインフラへシームレスに展開できる。

    なお、「DGX Spark」は、2025年7月よりAcer、ASUS、Dell Technologies、GIGABYTE、HP、Lenovo、MSIおよび世界中のチャネルパートナーから提供が開始される。

    「DGX Station」は、ASUS、Dell Technologies、GIGABYTE、HP、MSIから本年後半に発売される予定だ。

  • アドバンテック、NVIDIA技術でLLMをエッジ実装するAIシステムを発表

    アドバンテック、NVIDIA技術でLLMをエッジ実装するAIシステムを発表

    LLMをエッジで実行できれば、クラウドとの通信遅延を排したリアルタイム応答、機密データのオンプレミス処理によるセキュリティ向上、ネットワーク帯域の節約といったメリットが期待できる。

    しかし、LLMはその巨大なモデルサイズと計算量から、従来は高性能なデータセンター環境での利用が主であり、消費電力や実装面積に制約のあるエッジデバイスへの展開は大きな技術的課題となっていた。

    こうした中、Advantech Co., Ltd(以下、アドバンテック)は、NVIDIAのプラットフォームやGPUを活用したエッジAIコンピューティングプラットフォームを発表した。

    今回発表されたプラットフォームは、ハードウェアとソフトウェア両面からLLMのエッジ実装を最適化している点が特徴だ。

    具体的には、AI処理に最適化されたSoCである「NVIDIA Jetson」プラットフォームや、高性能な「NVIDIA RTX Ada Generation GPU」をハードウェアアクセラレータとして採用している。

    そして、ソフトウェア面では、LLM推論を高速化・効率化する「NVIDIA TensorRT-LLM」最適化ソフトウェアライブラリ、そしてこれらを統合的に支える「NVIDIA フルスタック高速コンピューティング基盤」を活用している。

    これにより、LlamaやDeepSeekといった主要なオープンソースLLMを、低遅延かつ電力効率よくエッジで実行可能にしている。

    アドバンテック、NVIDIA技術でLLMをエッジ実装するAIシステムを発表
    性能概要図

    このエッジAIコンピューティングプラットフォームは、要求される性能や用途に応じて選択可能な3つのモデルを提供する。

    一つ目は、組込み用途や省電力が求められる環境に適した「MIC-711-OX」だ。このモデルは、AI処理に最適化された「NVIDIA Jetson Orin NX 16GB」を搭載し、100 TOPS(INT8)のAI推論性能を実現しながら、低消費電力とコンパクトな筐体設計であるのが特徴だ。

    省電力性と設置の容易さから、スマートファクトリーにおける品質管理や予知保全、店舗での対話AIキオスクなど、スペースや電力供給に制約のある環境でのリアルタイムAI処理に適している。

    二つ目が、より高速で効率的なLLMの推論処理能力が求められる場合に適した「MIC-770V3 + MIC-75M20」だ。

    このモデルは、「Intel Core i7プロセッサ」と「NVIDIA RTX 4000 SFF Ada Generation GPU」を組み合わせており、300 TOPS(INT8)という、「MIC-711-OX」の3倍の推論性能を提供する。

    対象アプリケーションは、AIを用いたメールおよびドキュメント要約や、チャットボット・音声AIを活用したAIによる顧客サポート、コーディングおよび生産性向上ツールに対応したオンデバイスAI、サイバーセキュリティおよび不正検出AIが挙げられている。

    そして三つ目が、特定分野向けのAIトレーニングを実現する「SKY-602E3」だ。サーバクラスの「AMD EPYCプロセッサ」と「NVIDIA RTX 4500 Ada Generation GPU」を2基搭載しており、1000 TOPS(INT8)を超える演算能力を提供する。

    これにより、高度なLLM推論能力に加えて、エッジ環境でのAIモデル学習、特にLlamaのような基盤モデルのファインチューニングやドメインアダプテーションを可能にする。

    対象アプリケーションは、財務・法務向けAIモデルにおけるカスタム法的文書分析やリスク評価、ヘルスケアAIアシスタントでの診断サポートや患者データ分析、AIを活用した情報管理や、AIベースのソフトウェア開発アシスタントが挙げられている。

  • Ansys、シミュレーションソフトウェアにNVIDIA Omniverseを統合しデータ処理と可視化機能を強化

    Ansys、シミュレーションソフトウェアにNVIDIA Omniverseを統合しデータ処理と可視化機能を強化

    Ansysは、同社のシミュレーションソフトウェア「Fluent」や「AVxcelerate Sensors」をはじめとする一部の製品で、NVIDIAのリアルタイムシミュレーションプラットフォーム「NVIDIA Omniverse」との統合を実施すると発表した。

    これにより、高度なデータ処理と可視化機能が強化され、シミュレーションプロセスの効率化が期待される。

    通常、シミュレーションのためのデータ準備には、高品質なデータの確保や複数のソフトウェア間の相互運用性が求められる。しかし、これまでの方法では、ユーザは複数のソフトウェアプログラムで作業するが必要であり、可視化にも専用ツールや高度な専門知識が必要なケースが多かった。

    そこで今回Ansysは、「NVIDIA Omniverse」の技術を統合することで、3Dシーンデータの相互運用性を向上させ、シミュレーションデータの準備を簡素化した。手作業によるデータ準備が自動化され、精度の高い3Dモデルの作成が容易になる。

    これにより、シミュレーションの専門家が得た結果を、意思決定者やステークホルダーに直感的に伝えやすくなり、エンジニアリングプロセスの改善に貢献する。

    特に、流体シミュレーションソフトウェア「AVxcelerate Sensors」のアプリケーションにおいて、その効果が期待されている。また、Ansysユーザはインターフェース内でフォトリアリスティックな3Dモデルをレンダリングできるため、リアルタイムでのコラボレーションが可能となり、シミュレーション結果の共有がスムーズになる。

    さらに、ユーザがAnsys製品とやり取りできるようにするPythonパッケージファミリであるPyAnsysは、シミュレーションデータを自動的にフォーマットするため、シミュレーション担当者や開発者は「NVIDIA Omniverse」上に構築された独自のアプリケーション内でシミュレーションをカスタマイズおよび自動化することができる。

    既に、アスファルト道路建設、骨材処理、コンクリート製造用の特殊機器を製造する企業であるAstec Industriesは、Ansysを使用してアスファルトドラム乾燥機と水素バーナーを設計および最適化しているという。

    同社の先端技術担当ディレクターであるAndrew Hobbs博士は、「FluentにOmniverseの技術を統合することで、複雑な物理シミュレーションを可視化できるようになった。これにより、装置の動作を詳細かつ直感的に理解できるようになり、設計の最適化が加速した。」と述べている。

    なお、「NVIDIA Omniverse」を活用した一部の機能は、2025年第3四半期にAnsysのCFDソリューションおよび自律走行車ソリューションで利用可能になり、その後追加のアプリケーションも提供される予定だ。

  • NVIDIA、新たなGPUプラットフォーム「NVIDIA Blackwell Ultra」を発表

    NVIDIA、新たなGPUプラットフォーム「NVIDIA Blackwell Ultra」を発表

    NVIDIAは、AIカンファレンス「NVIDIA GTC」の基調講演にて、新たなGPUプラットフォーム「NVIDIA Blackwell Ultra」を発表した。

    「NVIDIA Blackwell Ultra」は、1年前に発表された「Blackwell」を基に構築されており、AI計算用のハードウェアシステム「NVIDIA GB300 NVL72」と、AIや高性能計算向けのコンピュータシステム「NVIDIA HGX B300 NVL16」が含まれている。

    「GB300 NVL72」は、ラックスケールデザインで72基の「Blackwell Ultra GPU」と、36基のArm Neoverseベースの「NVIDIA Grace CPU」を接続する。

    「GB300 NVL72」は、旧世代の「GB200 NVL72」と比較して1.5倍のAI パフォーマンスで、2022年に発表されたGPUアーキテクチャ「NVIDIA Hopper」で構築されたAIファクトリーと比較して、Blackwellの収益機会を50倍に増加させるとしている。

    なお、「GB300 NVL72」は、クラウドベースのAIスーパーコンピューターサービス「NVIDIA DGX Cloud」でも利用可能になる予定だ。

    一方「NVIDIA HGX B300 NVL16」は、Hopper世代と比較して、大規模言語モデルでの推論が11倍高速で、7倍の計算能力、4倍のメモリを搭載している。

    NVIDIAの創業者兼CEOであるジェンスンフアン氏は、「リーズニングとエージェント型AIには、桁違いの高いコンピューティングパフォーマンスが必要となる。NVIDIAは、この瞬間を想定してBlackwell Ultraを設計した。これは、事前トレーニング、事後トレーニング、リーズニングAI推論の処理を簡単かつ効率的に実行可能で、汎用性のあるプラットフォームだ。」と述べている。

    今後、「Blackwell Ultra」をベースとした製品は、今年後半より主要なコンピュータメーカとクラウドサービスプロバイダから順次利用可能になる予定だ。

    現時点で「Blackwell Ultra」搭載の仮想マシンを提供する予定のクラウドサービスプロバイダは、Amazon Web Services、Google Cloud、 Microsoft Azure, Oracle Cloud Infrastructureだ。加えて、GPUクラウドプロバイダのCoreWeave、Crusoe、Lambda、Nebius、Nscale、Yotta、YTLが挙げられている。

  • NTTデータ、NVIDIA最新GPUを活用した大規模機械学習向け基盤を提供

    NTTデータ、NVIDIA最新GPUを活用した大規模機械学習向け基盤を提供

    株式会社NTTデータは、NVIDIAアクセラレーテッドコンピューティングを活用した大規模機械学習向け基盤提供サービスの提供を、2025年10月より開始すると発表した。

    同サービスは、NVIDIA Blackwellアーキテクチャを採用し、「NVIDIA DGX B200システム」をクラスタ構成することで、高い計算量を実現するGPUリソースを提供する。

    さらに、「NVIDIA DGX B200システム」をベースとして、クラスター構成を組んだ「NVIDIA DGX SuperPOD」を構築する。(トップ画:)

    「NVIDIA DGX SuperPOD」は、大規模な言語モデルの構築、サプライチェーンの最適化、大量のデータからのインテリジェンスの抽出などを実行する。

    「NVIDIA DGX B200システム」で構築された「NVIDIA DGX SuperPOD」を活用することで、従来のモデルと比較してトレーニング性能で3倍、推論性能で15倍の向上を実現することができるのだという。

    なお、顧客専用のプライベートクラウド上で提供する予定で、セキュリティ性やカスタマイズ性が高いのが特徴だ。

    サービス提供を予定しているデータセンターのセキュリティー水準は、警備員による24時間365日の有人監視および、入退室をICカードと生体情報による多要素認証による管理を標準とし、顧客要件に合わせた専用ケージ区画での提供を可能にする。

    また、高性能なAIワークロードには高い電力密度が求められるが、同サービスは顧客の要望に応じてグリーン電力を活用することができる。

    今後、NTTデータは自社データセンターの活用やクラウドオファリング強化を図り、プライベート環境でのAI需要に応えるサービスのさらなる展開に取り組むとしている。

    なお、NTTデータは2024年10月より生成AI活用コンセプト「SmartAgent」を実現するための技術開発およびサービス提供を開始しており、今回のサービスは、この「SmartAgent」の実現に向けたインフラ領域強化の一環としても取り組まれるものだ。

    NTTデータ、NVIDIA最新GPUを活用した大規模機械学習向け基盤を提供
    「SmartAgent」の全体像と強化領域(赤枠)

    また、NTTグループの光を中心としたIOWN技術を活用し、地方へ分散化されたデータセンター間において、大容量なデータを高速・低レイテンシー、かつデータ秘匿性を担保した通信の実現を検討しているとのことだ。

    NTTデータ、NVIDIA最新GPUを活用した大規模機械学習向け基盤を提供
    分散データセンタ構想のイメージ