カテゴリー: 要素技術

[su_row][su_column size=”1/2″ center=”no” class=””]
IoTにおけるプラットフォームと要素技術
IoTにおけるプラットフォームとは、クラウド側の技術とデバイス側の技術に大きく分かれる。

デバイス側については、CPUなどのICモジュールや、そこに搭載されるOSなど、スマートフォンの普及からチップの小型化、省電力化、コスト低下が進む中で様々なモノに頭脳を搭載することができるようになった。

また、クラウドとデバイスをつなぐ、通信モジュールは、4G, 5Gといった馴染みの深い通信だけでなく、小データを定期的に送信することに特化したLPWAなどの通信に関しても含まれる。

通信モジュールも小型化・省電力化と、様々な通信形式への対応が進んでおり、今後様々なセンサーが取得するデータを発信するために必須とされその発展が期待されている。

[/su_column][su_column size=”1/2″ center=”no” class=””]
基本とソリューション紹介
「IoTプラットフォーム」とは何か、その機能やメリットをくわしく解説
[/su_column][/su_row]
記事一覧

  • エヌビディアが切り拓く「知能を民主化」する世界 ーCES2026レポート2

    エヌビディアが切り拓く「知能を民主化」する世界 ーCES2026レポート2

    CES2026レポートの第二弾はエヌビディアだ。

    昨年キーノートに登壇したジェンスン・ファンCEOだが、今年はプライベートイベントということで、会場とは異なるホテルで開催された。

    ただ、多くのキーノートでジェンスン・ファンは登場し、特にフィジカルAIのテーマではエヌビディアが中心であるという印象を持たざるを得ない状況にもなった。

    今回の講演における話題は、その「フィジカルAI」と呼ばれる、ロボティクスや自動運転カーなどで使われるAIの領域の話題と、Vera Rubinと呼ばれる、データセンター用のGPUや周辺のネットワークデバイスなどの2つだ。

    フィジカルAIは昨年来エヌビディアが推している領域ではあるが、市場の期待はまだまだデータセンター、すなわち、いわゆる生成AIなど向けのチップの製造や販売状況であるといえる。

    しかし、今後数年かけてロボティクスにおける知能向上が進むと見られていて、こちらは具体的な利用例が増えてくることが待たれている。

    現実世界を理解し、思考する「フィジカルAI」

    NVIDIAが他社と明確に差別化している最大の領域が、デジタルな知能を現実の物理世界へと拡張する「フィジカルAI」だ。

    ジェンスン・ファン氏はこれを「ロボティクスにとってのChatGPTが生まれた瞬間」と表現した。

    物理法則を学ぶ「3つのコンピューター」

    AIが現実世界で活動するには、重力や摩擦、因果関係といった「世界の常識」を理解しなければならない。

    そこで、これらを実現するために、NVIDIAは3つの異なるコンピューター・アーキテクチャを統合している。

    1. トレーニング・インフラ(NVIDIA DGX): 大規模なAIモデルを訓練
    2. シミュレーション(NVIDIA Omniverse): 物理法則に基づいた仮想空間でAIをテスト・検証
    3. 推論・実行(NVIDIA DRIVE / Jetson): 車両やロボット内部でリアルタイムに動作

    世界基盤モデル「NVIDIA Cosmos」

    しかし、これらがあったとしても、実際の世界を訓練しようと思うと、相当な時間とシーンが必要になる。

    例えば、大雨が降っている場合、氷で道路が滑る場合、ドライブスルーで注文をして受け取る場合、など、日常生活には様々なシーンが存在する。

    これらのすべてを何回もテストすることが現実的に不可能だ。

    そこで、こういった物理世界をテストするために生まれたのが、「Cosmos」と呼ばれるオープンな世界基盤モデルだ。

    現実世界のデータ収集はコストがかかり困難だが、Cosmosは物理的に正確な「合成データ」を生成することができる。

    CES2026 NVIDIA Cosmos
    Cosmosの概念図

    この合成データを活用することで、現実世界へのシミュレーションを行うことが可能になるのだ。

    ロボットや自動運転車は仮想空間で数十億マイルもの試行錯誤を事前に行うことが可能になる。

    推論型自動運転AI「Alpamayo(アルパマヨ)」

    そして、この技術の集大成として発表されたのが、世界初の思考・推論型自動運転AI「Alpamayo」だ。

    CES2026 NVIDIA Alpamayo
    Alpamayoの概念図

    Alpamayoは、従来のAIのように単にパターンを認識するのではなく、カメラからの入力から、車の操作までのすべてを訓練されていて、人間のように「なぜその操作を行うのか」を思考し、言葉で説明することができる推論能力を持つという。

    現在、アルパマヨのスタックを搭載した新型メルセデス・ベンツCLAは、NCAPで世界最高の安全評価を獲得し、第一四半期に米国で、第二四半期に欧州で順次リリースされているということだ。

    CES2026 NVIDIA Mercedes Benz CLA

    CES2026 NVIDIA Mercedes Benz CLA
    サンフランシスコ市内を走るデモンストレーション

    また、エンドツーエンドのAIスタックに加え、「NVIDIA Halos」安全システムに基づく従来の安全スタックを並行稼働させることで、絶対的な冗長性と信頼性を確保している。

    CES2026 すでに多くの車メーカーとエコシステムを構築しつつある

    ジェンスン・ファン氏は、向こう10年で、自動運転が一般的になるとし、その際は、オープンソースとして開発している、Alpamayoが世界の様々な地域での自動運転技術を支えることになるだろう。

    これまでは、TeslaやWaymoといった先行して実証実験を行う車が話題となっていたが、今回メルセデスという一般の方にもよく知られているメーカーの車が対応するということで、一気に自動運転の市場がひらけてくる可能性があると感じた。

    ロボティクスの未来と産業のデジタルツイン

    ここで、Jetsonを搭載し、Omniverseで訓練されたロボットを壇上で紹介した。

    CES2026 NVIDIA の技術で動くロボットたち

    LG、キャタピラー、ボストン・ダイナミクス、ユニバーサル・ロボティクスなど、信じられないほど多くのパートナーがロボットを構築しているという。

    本当に多くのロボットがエヌビディアの技術に支えられて動いていることがわかる。

    AIが大きなテーマとなった今回のCESでも、LGやボストンダイナミクスの人型ロボットが話題となったし、キーノートを務めたシーメンスやキャタピラーなどの企業もエヌビディアの技術を使って物理世界をインテリジェントにしようとしていた。

    さらに、フィジカルAIは設計・製造業界も変える。

    ケイデンス、シノプシス、そしてシーメンスとの提携によって、チップの設計から工場のライン構築、運用のデジタルツインまで、すべてがエヌビディアの技術で加速される。

    CES2026 NVIDIA ロボットエコシステム
    CES2026 NVIDIA ロボットエコシステム

    今回紹介された小型ロボットなども、コンピュータの中で設計され、コンピュータの中で製造・テストされ、デジタルツイン上で完璧な状態にされるのだ。

    CES2026で紹介されたロボットたち

    エージェント型AIを加速させる次世代プラットフォーム「Vera Rubin」の近況

    テクノロジーとしての面白みがあるのがフィジカルAIだとして、実需用として興味があるのは、今後、貪欲な生成AIニーズがおさまることを知らないのか?そして、そのニーズに対応できるのか?という点だ。

    ビッグテックはじめ、多くの企業で今まさに取り組んでいる生成AIへの対応だが、期待が高かった一方で「単なるバブルだったのではないか?」という懸念を言う人もいる。

    しかし、AIの需要は凄まじいものがあり、毎年そのモデルサイズは10倍に、AIが考えることに使われるトークンは5倍に、そしてコストは1/10倍になっているという。

    CES2026 NVIDIA AI Computingに対する要求
    AIコンピューティングに対する要求

    ジェンセン・ファンCEOによると、AIの進化は「単発の回答」から、時間をかけて思考する「推論」へと移行したことで、計算需要は爆発的に増加していまるのだという。

    そして、これに応えるのが、最新プラットフォーム「Vera Rubin」なのだ。

    エヌビディアは、昨年、現行のGrace Blackwellの後継となる、Vera Rubinを発表していた。その際、Rubinは2026年にはリリースするというマイルストーンを示していて、年が開けて初めの講演でジェンセン・ファンCEOがこの計画がどうなっていると発言されるのかが注目されていた。

    それに関して、今回の講演では、「すでに製造が開始されている」ことを発表した。

    6つのチップによる「極限の協調設計」

    Vera Rubinは、CPU、GPU、スイッチなど6つの異なるチップが最初から一つのシステムとして動作するように「極限の協調設計」がされている。

    Vera CPU

    前世代比で電力効率を維持しつつ、性能を2倍に向上。88個の物理コア(176スレッド)を搭載した、AIファクトリー向けに最適化されたCPU。

    CES2026 NVIDIA Vera Rubin Vera CPU

    Rubin GPU

    Blackwellの1.6倍のトランジスタを搭載しながら、推論性能は5倍に達する。これを支える「MV-FP4 Tensorコア」は、プロセッサ内部で精度を動的に調整し、スループットを最大化する。

    CES2026 NVIDIA Vera Rubin Rubin GPU

    ネットワーク(NVLink, Spectrum-X)

    毎秒3.6TBの帯域幅を持つ第6世代NVLinkや、シリコンフォトニクス技術をチップに直結したSpectrum-Xスイッチにより、インターネット全体の帯域幅を超えるデータ転送を実現。

    CES2026 NVIDIA Vera Rubin Spectrum-X

    CES2026 NVIDIA Vera Rubin Spectrum-X

    ストレージ(Dynamo KVキャッシュ)

    エージェント型AIが長時間の対話や調査を行う際、最大のボトルネックとなるのがキャッシュの容量だ。NVIDIAは「BlueField-4 DPU」を活用し、新たなストレージ層を構築した。

    CES2026 NVIDIA Vera Rubin Dynamo KVキャッシュ

    イーサーネットスイッチ

    シリコンフォトニクス技術を使い、新しく開発されたSpectrum-Xは、200Gビット/秒の通信を512ポートで実現する。

    CES2026 NVIDIA Vera Rubin Spectrum-X

    配線のないトレイ

    これまで、GPUのトレイにはボード間を繋ぐケーブルがあったが、今回からケーブルレスのトレイとなった。

    スピードを考えるとこの構成が最も早くなることはいうまでもない。

    CES2026 NVIDIA Vera Rubin

    このトレイの中に様々な新しいチップが格納され、それ同士が繋がり、データセンターに格納されるのだ。

    トレイへの収納作業もBlackwellの時は2時間以上かかっていたのが、Rubinだと5分で完了するとのことだ。

    KVキャッシュ

    実際に、AIと様々なやりとりをする中で、やり取りの記憶を残して欲しいと思うことがある。

    しかし、これを完全に行おうとすると処理がパンクしてしまい、AIが処理を上手く捌けないという問題が起きる。

    こういった経験はよくあることだが、これに対応するために、新しいKVキャッシュをBluefield4を活用した「ラック内KVキャッシュストレージ」を導入しした。

    各Bluefield4の背後には150テラバイトの文脈メモリが接続されており、システム全体で各GPUに追加の16テラバイトのメモリが割り当てられる。

    GPU単体では約1テラバイトの内部メモリしか持たないのだが、この補助記憶装置により、16倍の拡張が実現するということだ。

    CES2026 NVIDIA Vera Rubin

    実際のデータセンターに設置される際は、上の写真のように、1152個のGPUが16個のラックに格納され、各ラックには、72個のRubinが入るのだということだ。

    この機構によって、電力は約6%低減され、また、GPUやCPUなど書く演算チップ間のデータ秘匿性も実現され、企業での利用においても安心して使える。

    圧倒的な経済性と効率を見せるパフォーマンス

    今回のVera Rubinの発表を見ていると、単にGPUがスピードアップしたというよりは、AIが動くための環境全体を刷新したイメージを持った方が多いのではないだろうか。

    ジェンスン・ファン氏によると、そうでもしない限り、AIの需要には対応できないから、ということなのだが、それをこの短期間で実現したエヌビディアの力が恐ろしい。

    CES2026 NVIDIA Vera Rubin Performance
    緑がBlackwell, 黄色がRubinのパフォーマンス

    こうやって組み上がったシステムにより、Vera Rubinは、Blackwell世代と比較して、MoE(Mixture of Experts)モデルの訓練に必要なGPU数を4分の1に削減し、AIファクトリーのスループットは10倍に、トークン生成コストを10分の1にまで引き下げるのだ。

    CES2026 エヌビディアの新しいAIデータセンタープラットフォーム
    左がRubin、右がBlackwell

    エヌビディアが切り拓く「知能の民主化」

    エヌビディアの差別化は、チップ単体ではなく、「チップ、インフラ、モデル、シミュレーション、アプリケーション」の5層すべてを垂直統合しつつ、それらをオープンに提供している点にある。

    Physical AI Open Datasetの公開や、アルパマヨ・モデルのオープンソース化により、あらゆる企業や研究者がNVIDIAの強力な基盤を利用できるようになってきた。

    今後もしばらくはエヌビディア一強の時代が続くと思わざるを得ない講演だった。

  • ソラコム、IoT自動化サービス「SORACOM Flux」に現場業務に直結するテンプレートを拡充

    ソラコム、IoT自動化サービス「SORACOM Flux」に現場業務に直結するテンプレートを拡充

    株式会社ソラコムは、IoTデータと生成AIを組み合わせて自動化アプリケーションを構築できる同社のサービス「SORACOM Flux」において、設定済みの「アプリテンプレート」を拡充し、全14種類の提供を開始したと発表した。

    「SORACOM Flux」は、プログラミングの知識がなくても、センサやカメラなどから取得したIoTデータをもとに、通知や生成AIによる分析といった処理を組み合わせることができるIoTオートメーションサービスだ。

    「アプリテンプレート」は、代表的なユースケースに最適化されたワークフローをあらかじめ用意したものだ。テンプレートを選択して複製することで、IoTアプリケーションのワークフローが自動作成され、ユーザは最小限のパラメーター設定のみで自動化アプリケーションを利用することができる。

    今回新たに追加されたテンプレートの一つである「ソラカメで動画の解析と通知」は、クラウドカメラサービス「ソラカメ」で取得した動画データを生成AIが分析し、その結果に応じて通知を行うものだ。

    静止画では捉えきれない作業の前後関係や状況変化を動画データからAIが判断するため、分析に適したフレームの選択が可能となり、より高精度な検知や状況把握を実現する。

    ソラコム、IoT自動化サービス「SORACOM Flux」に現場業務に直結するテンプレートを拡充
    「ソラカメで動画の解析と通知」のワークフロー画面

    また、物理デバイスと連携したテンプレートも強化された。

    例えば、「LTE-Mボタン」をシャッターとして利用し、必要なタイミングで撮影・AI分析を行う仕組みや、「GPSマルチユニット」の位置情報を用いて指定エリアへの出入りを判定するジオフェンシング機能などが追加され、物流や設備管理の現場ですぐに利用できる構成となっている。

    さらに、画像解析の精度を高める新機能として「バウンディングボックス」も実装された。これは、画像内の特定の棚やエリアなど、分析対象を枠で指定してAIに分析させる機能であり、在庫数の推定や特定エリアにおける人物検出といったユースケースにおいて、不要な背景情報を除外した精度の高いシステム構築を可能にする。

    ソラコム、IoT自動化サービス「SORACOM Flux」に現場業務に直結するテンプレートを拡充
    画像内の特定のエリアを枠で指定し、その枠内のみをAIに分析させている。

    同社は今後も、顧客からのユースケースや最新の生成AI動向を反映させながら機能をアップデートするとしている。

  • OpenText、AIとクラウド対応の保険ワークフローへ向けたGuidewire向け新ソリューションを発表

    OpenText、AIとクラウド対応の保険ワークフローへ向けたGuidewire向け新ソリューションを発表

    OpenTextは、Guidewireのグローバル年次イベントである「Guidewire Connections」において、保険会社の重要な保険契約や保険金請求コンテンツにクラウドからのアクセスを実現する「OpenText Content Cloud」ソリューションを発表した。

    「OpenText Content Cloud」は、コンテンツとAIを活用した支援を保険ワークフローに直接組み込むことで、引受人や査定人、サービスチームが検索に費やす時間を削減するものだ。

    損害保険業界向けのプラットフォームを提供するGuidewire社の「Guidewire PolicyCenter(保険契約管理システム)」「Guidewire ClaimCenter(請求管理システム)」「Guidewire BillingCenter(保険料請求システム)」向けに設計されている。

    OpenTextのエグゼクティブ・バイスプレジデント、チーフ・マーケティング・オフィサー(CMO)であるSandy Ono氏は、「クラウドによるモダナイゼーションとAIの拡張は、今日の保険会社にとって最重要課題だが、コンテンツがしばしばその障害となっている。Guidewire向けのこれらの新しいソリューションは、保険会社がAIを基盤アプリケーションに直接組み込むことで、コンテンツを管理するだけでなく、コンテンツの活用を促進する。」とコメントしている。

    また、Guidewireのバイスプレジデント、マーケットプレイス&テクノロジーアライアンス担当であるWill Murphy氏は、「当社のお客様は、Guidewire内で直接、OpenTextのインテリジェントなコンテンツ管理を容易に活用することができる。これは、重要な情報への迅速なアクセスと、AIを活用した保険ワークフローの基盤が強化されることを意味する」と述べている。

    ある多国籍保険会社は、情報の断片化とコンプライアンスの課題を解決するためにOpenTextを採用し、コンテンツを一元化することで業務を効率化するとともに、Guidewireシステムとの連携を実現した。

    また、別の国際保険会社も「OpenText Information Archive」と「OpenText Content Management with Content Aviator」を活用したコンプライアンス対応とクラウド移行を実施することで、AIによるより深いインサイトの獲得を可能にしたのだという。

    なお、「Guidewire PolicyCenter」「ClaimCenter」「BillingCenter」向けのOpenTextソリューションは、Guidewire Marketplaceで入手可能だ。

  • シスコ、エッジ環境における分散型エージェンティックAIワークロード向け「Unified Edge」を発表

    シスコ、エッジ環境における分散型エージェンティックAIワークロード向け「Unified Edge」を発表

    シスコシステムズ合同会社(以下、シスコ)は、分散型AIワークロード向けの統合コンピューティングプラットフォーム「Cisco Unified Edge」を発表した。

    「Cisco Unified Edge」は、エッジからコアにAIを安全かつ簡素に導入・管理できるプラットフォームだ。既存システムを全面的に入れ替えることなく、拡大して適応できる設計となっている。

    その基盤となるのは、コンピューティング、データストレージ、そしてネットワーキングの機能を一つのプラットフォームに統合したフルスタックのコンバージドアーキテクチャだ。

    この設計により、システム全体が効率的に機能し、広範なパートナーエコシステムによるサポートも可能になる。

    さらに、このプラットフォームはモジュール型シャーシを採用しており、CPUやGPUの構成を自由に選べるほか、システムを安定稼働させるための冗長電源と冷却システムを搭載している。

    セキュリティに関しては、改ざん防止機能、詳細なテレメトリ、一貫したポリシー、設定ドリフト(ずれ)がないため、レジリエンスを確保しつつ、監査証跡が運用拡大時のコンプライアンスを保証するとしている。

    また、デバイスレベルでセキュリティが組み込まれており、ゼロトラストを適用することも可能だ。

    なお、「Cisco Unified Edge」は現在受注可能であり、年内に一般提供を開始する予定だ。

  • GMOインターネット、生成AI向けGPUクラウドサービスにモニタリングダッシュボード機能を追加

    GMOインターネット、生成AI向けGPUクラウドサービスにモニタリングダッシュボード機能を追加

    GMOインターネット株式会社は、生成AI向けGPUクラウドサービス「GMO GPUクラウド」において、GPUサーバのリソースを可視化できるモニタリングダッシュボード機能の提供を開始した。

    同機能は、オープンソースのデータ可視化プラットフォーム「Grafana」を活用し、GPUサーバのリソース使用状況や、ジョブ管理システム「Slurm」のジョブ実行状況を直感的に可視化する。複数のジョブやワークロードの利用傾向をモニタリングすることで、GPUリソースの効率的な利用を支援する。

    モニタリングダッシュボードでは、「パーティションにおける実行中ジョブ数」「パーティションにおける待機中ジョブ数」「ユーザ別の実行中ジョブ数」「ユーザ別の待機中ジョブ数」といった項目を一画面上で確認することができる。

    GMOインターネット、生成AI向けGPUクラウドサービスにモニタリングダッシュボード機能を追加
    ダッシュボードのイメージ

    活用シーンとしては、ジョブが実行されている時間帯を可視化し、実行が集中している時間があれば分散するよう調整したり、一定時間内におけるGPU利用率を確認し、パラメータを調整することでリソース効率を最適化したりといった例が挙げられている。

  • AMCソフトウェアジャパン、AI支援・ARM対応のCOBOL製品最新版を発表

    AMCソフトウェアジャパン、AI支援・ARM対応のCOBOL製品最新版を発表

    AMCソフトウェアジャパン合同会社は、COBOL製品およびエンタープライズ製品の最新版「11.0J」の国内販売を開始した。

    今回アップデートされたのは、COBOLの開発・実行環境である「Visual COBOL/COBOL Server」、IBMメインフレームのJCL、CICS、IMS互換機能やPL/I言語サポートを含む上位版「Enterprise Developer/Enterprise Server」、そしてプログラム資産の構造を可視化・分析する「Enterprise Analyzer」の3製品群だ。

    最新バージョンでは、開発支援機能や実行環境機能の強化に加え、新たなプラットフォームおよびデータベースのサポートが追加された。

    具体的には、AI連携やセキュリティ機能の強化、ARMプロセッサへの対応を拡張し、COBOLおよびPL/Iのレガシーアプリケーションを、クラウドやエッジ環境といった最新のインフラストラクチャ上で柔軟に運用することが出来る。

    また、COBOLプログラムの解析を支援する「Enterprise Analyzer」に、AI連携機能が搭載された。チャットアシスタントに対し「Please search where item G is used(Gという項目がどこで使われているか探して)」といった自然言語での指令や、ビジネスルールの自動生成が可能になる。

    さらに、共通Web管理画面(ESCWA)が強化され、複雑な権限設定やユーザに紐づくロール(役割)を関連図として可視化できるようになった。

    「Enterprise Developer/Enterprise Server」では、IBMメインフレームのJCL、CICS、IMS互換機能を引き続き提供。メインフレーム上で稼働する既存のJCLやCICSアプリケーションを、オープンプラットフォーム上でテスト・運用することが可能だ。

  • CTC、生成AI活用しレガシー資産を近代化する独自サービス「re:Modern」を提供開始

    CTC、生成AI活用しレガシー資産を近代化する独自サービス「re:Modern」を提供開始

    伊藤忠テクノソリューションズ株式会社(以下、CTC)は、レガシーシステムのモダナイゼーション(近代化・最適化)を支援する独自サービス「re:Modern」の提供を開始した。

    同サービスは、COBOLで構築されたメインフレームなどのシステムを、CTCが独自に構築した移行支援機能により、Javaへ変換するものだ。

    言語の変換に加え、運用フェーズまでを見据えた設計で、要件定義から保守・教育支援までを伴走型でサポートする。

    また、生成AIを用いて、既存の設計書やプログラムから処理内容を理解し、適切なコメントを変換後のコードに自動反映する機能も備えている。

    これにより、COBOLの専門知識がない開発者でも既存システムの処理内容を把握しやすくなり、属人化の解消に加え、システムの新旧比較やJava開発者による旧システムの理解支援など、リビルド(既存システムを参考に再構築する開発手法)時の活用にもつなげる。

    なお、Javaへの変換後に必要となる補助機能(ライブラリ)には、特定製品ではなく、制約のないオープンソースソフトウェアを採用している。

    CTC、生成AI活用しレガシー資産を近代化する独自サービス「re:Modern」を提供開始
    「re:Modern」の概要図

    今後もCTCは、PL/IやRPG、PL/SQLなどのレガシー言語の変換対応に加えて、Node.jsはじめとするクラウドに適したモダン言語への対応や、オープンレガシーのバージョンアップ・マイグレーションも進めていくとしている。

  • Qt Groupとインフィニオン、エッジAIデバイスに軽量グラフィックス技術を統合しUI開発を支援

    Qt Groupとインフィニオン、エッジAIデバイスに軽量グラフィックス技術を統合しUI開発を支援

    Qt Groupは、同社が開発する軽量グラフィックスフレームワーク「Qt for MCUs」を、ドイツの半導体メーカのインフィニオン・テクノロジーズ(以下、インフィニオン)の新しいマイクロコントローラ「PSOC Edge」に標準搭載することを発表した。

    これにより、製品開発者は小型で低消費電力なAI対応デバイスでも、滑らかで高性能なユーザーインターフェース(UI)を簡単に構築できるようになる。

    マイクロコントローラは、家電や車載機器、ウェアラブルなどの制御に使われる小型コンピュータだ。これまでは処理能力やメモリが限られており、AI処理や高画質なグラフィックス表示を同時に実現することは難しかった。

    そこで今回、「Qt for MCUs」が「PSOC Edge」と直接連携することで、少ないリソースでも動作するリッチなUIや、直感的な操作体験を提供する。

    また、「Qt for MCUs」は、「Figma to Qt」や「Qt Design Studio」など、デザインからプログラミングまでを一貫して行えるツール群を提供している。

    加えて、インフィニオンの開発環境「ModusToolbox」と統合されており、開発者は短期間でアプリケーションをデプロイし、リアルタイムデバッグが可能だ。

    さらに、自動GUIテストツールSquishなどの品質保証ツールも利用でき、製品出荷前のUI品質を高いレベルで担保できる。

    これにより、音声やジェスチャで操作できるスマートホーム機器や、転倒および特定の音を検知して反応するヘルスケア・ウェアラブル、多数のデバイスを一括で管理するスマートホームハブといったエッジAIデバイスのUI開発を支援する。

  • スーパーマイクロ、液冷とモジュール化でデータセンタの省電力・短期立上げを実現するソリューションを提供

    スーパーマイクロ、液冷とモジュール化でデータセンタの省電力・短期立上げを実現するソリューションを提供

    Super Micro Computer, Inc.(以下、スーパーマイクロ)は、ワンストップショップ型データセンタ向けソリューション「Data Center Building Block Solutions」(以下、DCBBS)を発表した。

    同ソリューションは、データセンタを構成するサーバ、ストレージ、ネットワーク、電源、冷却設備、管理ソフトウェアなどをモジュール化し、設計から構築、運用管理までを、スーパーマイクロの製造施設において事前に統合・検証された状態で出荷するというものだ。

    「DCBBS」で提供されるサーバ群は、最新のAIおよび高速演算技術を搭載しており、NVIDIA、AMD、Intelの最新GPU/CPUに対応したシステムが含まれている。

    また、GPUやCPUなどの発熱量が大きいコンピューティング環境に対応するため、液冷コールドプレートを独自設計しており、各システム内の発熱部から最大98%の熱を除去する。

    加えて、ラック背面に設置するリアドア・ヒート・エクスチェンジャー(RDHx)や、ラック内に配置するクーラント分配ユニット(CDU)など、複数の液冷構成を組み合わせることで、250kWから最大1.8MW規模の高密度サーバークラスターを安定稼働させることが可能となっている。

    スーパーマイクロのチャールズ・リアンCEOは、「同社の液冷技術を活用することで、従来の空冷型データセンタと比べて最大40%の電力削減が可能になる」と述べている。

    電力供給面では、1ラックあたり33kWの電源シェルフや、停電時に48V直流電源で33kWを90秒間バックアップするバッテリーユニットを提供し、安定した稼働を確保している。

    ネットワーク面では、スーパーマイクロが提供するイーサネットスイッチが最大800GbE/51.2Tbpsの帯域に対応しており、AIやHPCなど用途に応じた最適化が可能だ。

    さらに、イーサネットだけでなく、InfiniBandやOmni-Pathといったパートナー製ネットワークも構成に応じて選択できるようになっている。

    なお、これらの構成要素は全て、スーパーマイクロの製造施設で統合済みの状態で出荷されるため、導入現場での組み立てや調整工数を最小化できる。

    スーパーマイクロ、液冷とモジュール化でデータセンターの省電力・短期立上げを実現するソリューションを提供
    液冷技術とモジュール設計による高密度サーバクラスタ構成イメージ

    さらに同社は、「DCBBS」で構築されたデータセンタの管理・制御を支援するソフトウェア群も併せて提供する。

    一つ目は、ラック単位での管理を可能にし、サーバやネットワーク機器、PDUやCDU、液冷塔や他社製システムまで含めて単一ポータルで統合管理できるプラットフォームである「SuperCloud Composer」だ。

    電力監視、水漏れ検知、GPU温度監視などを含むセーフティ機能を備え、2万台を超えるホストを一括制御することが可能だ。

    二つ目は、ファームウェア更新やKubernetes環境構築などを自動化する、データセンターおよびエッジインフラに対応する企業向けの自動化プラットフォーム「SuperCloud Automation Center」だ。これにより、セキュリティとガバナンスを担保しながら、AIワークロードの展開を支援する。

    三つ目は、開発者向けのセルフサービス型プロビジョニング環境「SuperCloud Developer Experience Console」で、コードからモデルまでを迅速かつ安全に構築できる環境を提供する。

    また、マルチテナント対応のAIクラウド制御プラットフォームである「SuperCloud Director」を活用して、ベアメタル、イーサネット、InfiniBandネットワーク、そして複数のストレージ基盤を統合管理することができる。

    そしてスーパーマイクロは、今回の「DCBBS」の一環として「Supermicroグローバルサービス」の提供も開始している。

    これは、データセンタ設計やソリューション検証、現地展開支援を含む包括的なサービスであり、導入後も4時間以内のオンサイト対応など、ミッションクリティカルな運用を支える体制を整えている。

    さらに、新設のデータセンタだけでなく、既存の空冷施設から液冷施設への移行にも対応し、顧客のニーズに応じて柔軟な構築支援を提供するとのことだ。

  • ソフトバンクとオラクルがソブリン性を備えたクラウドサービスを提供、AIサービスも順次展開

    ソフトバンクとオラクルがソブリン性を備えたクラウドサービスを提供、AIサービスも順次展開

    ソフトバンク株式会社とオラクル・コーポレーション(以下、オラクル)は、クラウド上のデータやシステムを自国の管理下で運用し、データ主権(以下、ソブリン性)を備えたサービスの提供に向けて協業を開始した。

    この協業に基づき、ソフトバンクは日本市場向けのクラウドサービスとして、「Cloud PF Type A(クラウド・プラットフォーム・タイプ・エー)」の提供を、2026年4月から順次開始する。

    「Cloud PF Type A」では、オラクルのクラウド・インフラストラクチャー・プラットフォーム「Oracle Alloy(オラクル・アロイ)」を活用したクラウド基盤をソフトバンクの日本国内のデータセンターに導入し、ソフトバンクが管理・運用することで、ソブリン性を備えたクラウドサービスを提供する。

    また、「Oracle Cloud Infrastructure」の200種類以上のクラウドおよびAIサービスを順次展開し、暗号化キーを生成して管理するオラクルの暗号鍵管理サービス(以下、KMS)「Oracle Cloud Infrastructure Vault」と、ソフトバンク独自のKMSを組み合わせることで、高度なセキュリティを確保する。

    さらに、ソフトバンクのマルチクラウド接続サービスやVPNサービスによる閉域網接続によって、複数のクラウドサービスを利用できる環境を構築する。

    加えて、ソフトバンクのMSP(Managed Service Provider)サービスを通して、企業や自治体のニーズに応じてクラウドの運用から管理までを一貫して支援する。

    今後ソフトバンクは、高速演算処理技術や生成AIの多様な活用ニーズにも対応可能なクラウド基盤の構築を目指すとしている。

    なお、同クラウドサービスは、2026年4月に東日本のデータセンターで提供を開始し、10月に西日本のデータセンターで提供を開始する予定だ。