タグ: NVIDIA Tesla

  • NVIDIA、AI都市実現に向け、エッジからクラウドまで対応したMetropolisビデオ分析プラットフォームを発表

    NVIDIA、AI都市実現に向け、エッジからクラウドまで対応したMetropolisビデオ分析プラットフォームを発表

    NVIDIAは、インテリジェントビデオ分析プラットフォーム「NVIDIA Metropolis」を発表した。

    「Metropolis」は、ビデオストリームにディープラーニングを適用することにより、公共安全、交通管理、リソースの最適化などの面で、今までよりも安全かつスマートな都市を実現するという。既に50社以上のNVIDIA AI都市パートナー企業が、ディープラーニング技術をGPUに適用する製品やアプリケーションの提供を開始している。

    政府施設、公共交通機関、商業ビル、道路沿いなどに設置されている何億台ものカメラで撮影される動画は、世界最大のデータ量を生み出している。2020年までに、世界のカメラの合計台数は、約10億台まで増えると予測されている。

    撮影された動画のうち、現在、人間の目でモニタリングできているのはごくわずかであり、動画のほとんどは、後日確認用にディスクに保存されている。初期のリアルタイム動画分析技術は、人間の目による解釈よりもはるかに信頼性が低いことが実証されてきた。一方、インテリジェントビデオ分析は、カメラ、オンプレミスのビデオレコーダーとサーバー、およびクラウドにディープラーニング技術を適用し、動画を正確かつ拡張可能な形で即時モニタリングすることにより、信頼性の問題を解決するという。

    「Metropolis」では、複数のNVIDIA製品が、統一されたアーキテクチャー上で動作する。高性能なディープラーニング推論は、エッジデバイスではNVIDIA Jetson組み込みコンピューティングプラットフォームを使って、またサーバーやデータセンターではNVIDIA Tesla GPUアクセラレーターを使って行われる。またNVIDIA Quadroプロフェッショナルグラフィックスが、リッチなデータ可視化を支援。そして、JetPack、DeepStream、TensorRTなど、NVIDIAの豊富なソフトウェア開発キットが、エッジからクラウドまでプラットフォーム全体をサポートするとしている。

    NVIDIA、AI都市実現に向け、エッジからクラウドまで対応したMetropolisビデオ分析プラットフォームを発表

    既に50社以上のNVIDIA AI都市パートナー企業が、NVIDIA GPU上でディープラーニングを用いることにより、顧客が洞察を獲得し、リアルタイムのアクションを行えるよう支援している。パートナーには、Avigilon、Dahua、Hanwha Techwin、Hikvision、Milestoneなどの各社が含まれている。

    【関連リンク】
    エヌビディア(NVIDIA)

  • パナソニックがNVIDIAのAI・ディープラーニングソリューションの提供を開始

    パナソニックがNVIDIAのAI・ディープラーニングソリューションの提供を開始

    この記事はNVIDIAのブログ記事で発表された内容である。

    NVIDIAはパナソニック ソリューションテクノロジー株式会社 (以下、パナソニック) と販売代理店契約を締結し、AI・ディープラーニング ビジネスを共同で推進することに合意した。

    今後は、自動車 (車載、自動運転)、製造(生産自動化、需給予測、スマート家電)、医療・健康、建設・住宅、金融などのさまざまな分野において、パナソニックのデータ サイエンティストが持つ知見や、顧客の環境・要件に合わせた提案・設計のノウハウ、そして NVIDIA Tesla GPUおよび、AIスーパーコンピューター NVIDIA DGX-1による高度な分析技術を生かしたAIソリューションの導入を加速していくという。

    NVIDIAのTeslaプラットフォームは、半精度演算性能が21.2テラフロップスに達するフラッグシップGPUのNVIDIA Tesla P100をはじめ、推論処理用GPUのTesla P4 、Teslaシリーズで最大のメモリ容量を持つTesla P40といったハードウェアと、その性能を引き出すディープラーニングSDK等のソフトウェア スタックから構成される。

    また、Tesla P100を8基搭載するAIスーパーコンピューター DGX-1は、通常のサーバー250台分に相当する演算性能で、ディープラーニングの学習及び推論処理を強力に支援するという。

    【関連リンク】
    エヌビディア(NVIDIA)
    パナソニック ソリューションテクノロジー(Panasonic Solution Technologies)

  • NVIDIA Tesla、Tencent CloudのAIクラウドコンピューティングに採用

    NVIDIA Tesla、Tencent CloudのAIクラウドコンピューティングに採用

    NVIDIAは、Tencent Cloudが企業顧客向けの人工知能を発展させるためNVIDIA Tesla GPUアクセラレーターを採用することを発表した。

    Tencent Cloudは自社のパブリッククラウドコンピューティングプラットフォームに、NVIDIAのGPUコンピューティングとディープラーニングプラットフォームを組み込む予定。これにより、一連の新たなクラウドサービスがユーザに提供され、これらのサービスは、Pascalアーキテクチャをベースとする最新のTesla P100やP40などのTesla GPUアクセラレーター、複数のGPUを接続するためのNVIDIA NVLinkテクノロジー、およびNVIDIAディープラーニングソフトウェアによって駆動される。

    業界を問わずさまざまな組織で、顔認識、自然言語処理、トラフィック分析、インテリジェントな顧客サービス、機械学習といった高度なアプリケーションを開発するのに必要な、核となるAIテクノロジーをさらに活用したいというニーズが高まっている。非常に効率的なGPUの並列処理機能により、NVIDIAのコンピューティングプラットフォームは、高度な分析や高性能なコンピューティングを含め、データ集約的なワークロードの処理を加速するうえで、効果を発揮するという。

    両社のコラボレーションの一環として、Tencent Cloudは、NVIDIAのAIコンピューティングプラットフォームをベースとしたさまざまなクラウド製品を顧客に提供する予定としている。これには、NVIDIA Tesla P100、P40、M40といったGPUアクセラレーターおよびNVIDIAディープラーニングソフトウェアを組み込んだGPUクラウドサーバーが含まれる。Tencent Cloudは12月に、NVIDIA Tesla M40 GPUとNVIDIAディープラーニング ソフトウェアをベースとしたGPU サーバーを発表した。

    今年前半に、これらのクラウドサーバーに最大8基のGPUアクセラレーターを統合し、非常に大量のデータとウルトラサイズの装置を使用するディープラーニングとアルゴリズムに対する要件を満たしながら、優れた性能をユーザに提供するという。

    【関連リンク】
    エヌビディア(NVIDIA)

  • NVIDIAとMicrosoft、協力してAIを加速

    NVIDIAとMicrosoft、協力してAIを加速

    NVIDIAは、AIによる大変革に参画する企業を支援するため、企業におけるAIを加速させるMicrosoftとのコラボレーションを発表した。企業は、Microsoft Azureまたはオンプレミス環境のNVIDIA Tesla GPU上で稼働するよう最適化された初の企業専用AIフレームワークを使用し、自社のデータセンターからMicrosoftのクラウドまでをカバーするAI ラットフォームの利用が可能になった。

    協力して最適化されたプラットフォームにより、新しいMicrosoft Cognitive Toolkit(以前の CNTK)は、NVLink インターコネクトテクノロジーを備えたPascalアーキテクチャーのGPUを利用する NVIDIA DGX-1スーパーコンピューターなどのNVIDIAのGPU、および現在プレビュー版が提供されているAzure Nシリーズ仮想マシン上で実行される。この組み合わせにより、ディープラーニングのデータを使用すると、これまでにないパフォーマンスと使いやすさがもたらされるという。

    結果として、企業はAIを活用し、より適切な意思決定、より迅速な新しい製品とサービスの提供、より優れた顧客満足体験を実現できるようになる。2年間でNVIDIAがディープラーニングに関して協力してきた医療、ライフ サイエンス、エネルギー、金融サービス、自動車、製造業などの企業の数は194倍の19,000社を超えるまでに急増した。

    Microsoft Cognitive Toolkit は、他の利用可能なツールキットよりも迅速にディープラーニングアルゴリズムをトレーニングして評価し、CPUからGPUや複数マシンへ、その精度を維持しながら、環境の範囲内で効率的に規模を調整する。NVIDIAとMicrosoftは緊密に協力しながら、GPUベースのシステムおよびMicrosoft AzureクラウドにおいてCognitive Toolkitを加速させ、新興企業や大企業に以下の能力を提供する。

    • 汎用性の向上
      Cognitive Toolkitにより、顧客は、1つのフレームワークを使用し、NVIDIA DGX-1またはNVIDIA GPU ベースのシステムを利用したオンプレミス環境でモデルをトレーニングしてから、そのモデルをAzureクラウドで実行できる。このような拡張性の高いハイブリッドアプローチにより、企業は、インテリジェント機能の迅速な試作と展開が可能になる。
    • パフォーマンスの高速化
      GPUアクセラレーテッドCognitive Toolkitは、CPUにおける実行と比較すると、Azure Nシリーズサーバーおよびオンプレミスで利用可能なNVIDIA GPUでは、ディープラーニングのトレーニングと推論をはるかに速いスピードで実行する。(※)たとえば、PascalおよびNVLinkインターコネクト テクノロジーを備えたNVIDIA DGX-1は、Cognitive ToolkitをCPU サーバーの170倍の高速で実行する。
    • より幅広い利用可能性
      NVIDIA GPUによるAzure Nシリーズ仮想マシンでは、現在、Azureユーザーに対してプレビュー版が提供されており、まもなく一般提供の予定。Azure GPUを利用すると、トレーニングおよびモデルの評価の両方を加速できる。すでに数千件の顧客がプレビュー版の一部を体験し、あらゆる規模の企業がAzure Nシリーズ仮想マシンのTesla GPU上でワークロードを実行している。

    NVIDIAとMicrosoftはコラボレーションを継続し、AzureのNVIDIA GPU向けに、また、オンプレミスのNVIDIA DGX-1と接続する場合はハイブリッド クラウドAIプラットフォームの一部として、Cognitive Toolkitの最適化を進める計画だという。

    (※)  AlexNet トレーニング バッチ サイズ 128、デュアルソケットの E5-2699v4、44 コアの CPU、CNTK 2.0b2 を使用して NVIDIA DGX-1 システムと比較した。最新の CNTK 2.0b は cuDNN 5.1.8、NCCL 1.6.1 を含む。

    【関連リンク】
    エヌビディア(NVIDIA)
    マイクロソフト(Microsoft)

  • NVIDIA、ディープ・ラーニング・スーパーコンピュータを発売

    NVIDIA、ディープ・ラーニング・スーパーコンピュータを発売

    NVIDIAは、人工知能(AI)で要求される無制限のコンピューティングに対応するディープ・ラーニング・スーパーコンピュータ、NVIDIA® DGX-1™を初公開した。

    NVIDIA DGX-1は、ディープ・ラーニングに特化して設計されたシステムで、ハードウェア、ディープ・ラーニング・ソフトウェア、および開発ツールを余すところなく統合し、開発を迅速かつ容易にする。このシステムはすぐに稼働可能な状態で提供され、新世代のGPUアクセラレータを搭載し、x86サーバー250台分のスループットを実現する。

    DGX-1ディープ・ラーニング・システムにより、研究者やデータ科学者は、GPUで加速された計算機能をたやすく活用して、人間のように世界を学び、理解し、知覚する、新たなクラスのインテリジェント・マシンを作り出すことができる。このシステムにより、かつてないレベルの計算能力が実現して新世代の人工知能の応用が推進され、研究者は、より大規模でより精巧なディープ・ニューラル・ネットワークを発達させるための時間を劇的に削減できる。

    NVIDIAではDGX-1を、科学、ビジネス、そしてますます日常生活のあらゆる面にわたって広がっていくAI革命を推進するための、新しいコンピューティング・モデルを目指して設計した。強力なディープ・ニューラル・ネットワークが、大量のデータで作成された新たな種類のソフトウェアを牽引し、それにより、これまで以上にはるかにハイレベルな計算性能が求められる。

     

    5つのブレークスルーの活用

    NVIDIA DGX-1ディープ・ラーニング・システムは、新たなNVIDIA Pascal™ GPUアーキテクチャを基盤とするNVIDIA Tesla® P100 GPUで構築される。CPUベースのサーバー250台分のスループット、ネットワーク接続、ケーブル、およびラックをオールインワンで提供。

    また、DGX-1には、パフォーマンスを最大化し、使いやすくするためのブレークスルー・テクノロジがほかにも4つある。これには、アプリケーションの拡張性を最大化するNVIDIA NVLink™高速インターコネクト、かつてないエネルギー効率を生み出す16nm FinFETファブリケーション・テクノロジ、ビッグ・データ・ワークロード用のHBM2を使用したチップ・オン・ウェハ・オン・サブストレート、ディープ・ラーニングのピーク時性能が21テラフロップスを超える新しい半精度浮動小数点命令がある。

    さらに、これらの主要な技術的進歩により、Tesla P100 GPUを備えたDGX-1システムはたった1年前の4-way NVIDIA Maxwellアーキテクチャ・ベースのソリューションの 12倍以上の速さで学習を行う。

    Pascalアーキテクチャには人工知能のエコシステムの強力なサポートがある。

     

    包括的なディープ・ラーニング・ソフトウェア・スイート

    NVIDIA DGX-1システムには、最適化されたディープ・ラーニング・ソフトウェア・スイートが揃えられ、研究者やデータ科学者はディープ・ニューラル・ネットワークを短期間で簡単に発達させることができる。

    DGX-1ソフトウェアには、ディープ・ニューラル・ネットワーク(DNN)を設計するためにまとめられたインタラクティブなシステムである、NVIDIA Deep Learning GPU Training System(DIGITS™)が備えられている。また、新しくリリースされたDNNの設計用プリミティブのGPU加速化ライブラリである、NVIDIA CUDA® Deep Neural Network library(cuDNN)バージョン5も含まれている。

    さらに、広く使用されているディープ・ラーニング・フレームワークであるCaffe、Theano、およびTorchの最適化バージョンも含まれ、追加でクラウド管理ツール、ソフトウェア・アップデート、およびコンテナ化アプリケーションのリポジトリも提供する。

     

    「NVIDIA DGX-1」システム仕様

    ·最大170テラフロップス(半精度浮動小数点(FP16)のピーク時性能)
    ·Tesla P100 GPUアクセラレータx 8、16GBメモリ/GPU
    ·NVLink Hybrid Cube Mesh
    ·7TB SSD DLキャッシュ
    ·デュアル10GbE、クアッドInfiniBand 100Gbのネットワーク接続
    ·3Uサイズ電源 – 3200W

    NVIDIA DGX-1のオプション・サポート・サービスにより、生産性が向上し、実稼働システムのダウンタイムが削減される。ハードウェアおよびソフトウェアのサポートには、NVIDIA におけるディープ・ラーニングの専門知識の提供や、クラウド管理サービス、ソフトウェアのアップグレードとアップデート、およびクリティカルな問題の優先解決が含まれる。

     

    提供開始時期

    NVIDIA DGX-1ディープ・ラーニング・システムの一般提供開始時期は米国では6月、その他の地域では第三四半期始めとなり、NVIDIAと認定されたシステム・インテグレータ から直接入手できる。

     

    【関連リンク】
    エヌビディア(NVIDIA)