カテゴリー: メタバース

  • 日鉄ソリューションズ、操業・保全・保安・物流情報を一元可視化するデジタルツインソリューション「Geminant」を発売

    日鉄ソリューションズ、操業・保全・保安・物流情報を一元可視化するデジタルツインソリューション「Geminant」を発売

    日鉄ソリューションズ株式会社(以下、NSSOL)は、製造・物流拠点を有する製造・エネルギー・運輸業などに対して、3Dのデジタル空間上に自社拠点の操業・保全・保安・物流に関する情報を表示することで、一元的な可視化を実現するデジタルツインソリューション「Geminant(ジェミナント)」の販売を開始した。

    「Geminant」は、データの時系列管理と現場の可視化をキーに、異なる業務間におけるデータ連携・共有する製品だ。

    地理情報システム(GIS:Geographic Information System)で表現された3次元マップをベースに、単一工場だけでなく、全世界の工場や営業エリアを対象とした可視化が可能だ。

    また、過去~現在の時系列に応じたデータ可視化機能に加え、NSSOLが保有する数理モデルを用いた最適化技術やシミュレーション技術を使って、外部からのシミュレーション結果を連携させることで、未来時間での並行世界も表現することができる。

    さらに、デジタルツインを表現する統合データモデルをベースに、ユーザの業務を表現するデータを追加することで、独自のデジタルツインシステムを構築することが可能だ。

    これにより、様々な役割や業務を超えて俯瞰的・視覚的に状況認識を行うことが可能となるほか、計画データやシミュレーション結果を反映することにより、予実分析や異常予測等も実現可能となる。

    日鉄ソリューションズ、操業・保全・保安・物流情報を一元可視化するデジタルツインソリューション「Geminant」を発売
    「Geminant」の画面イメージ

    加えて、NSSOLが保有する既存のスマートファクトリーソリューションである、現場作業員向けの「安全見守りくん」、製造設備向けの稼働状態監視・予知保全ソリューション、製造物に対する現品管理・トレーサビリティ・画像解析ソリューションなどの各種データに加え、ユーザが保有するDCSなどの運転データ、P&ID/BIMなどの図面データ、各種カメラ映像、BIツールなどの様々なデータを「Geminant」と連携させることによって、ポータル化することも可能だ。

    また、NSSOLの自社開発ソリューションのため、URL連携不可のデータについても、要望に応じて個別に連携用インターフェイスの開発が可能とのことだ。

    日鉄ソリューションズ、操業・保全・保安・物流情報を一元可視化するデジタルツインソリューション「Geminant」を発売
    「Geminant」とデータソースとの連携イメージ

    ユースケースとしては、保安情報の一元化、災害時対策、工事シミュレーション、保全作業効率化、操業運転管理、車両運行管理などが挙げられている。

    今後は、関連する複数のデータに共通の管理IDを割り当てデータベース化する技術、自動でデータ間の関連付けを行う技術、生成AIを用いて必要な情報をガイダンスする技術などからなる「データシンクロニシティプラットフォーム」への拡張を目指しているのだという。

  • ダッソー・システムズ、複数の生成AIを組み込んだデジタル環境をApple Vision Proに投影する「3DLive」をリリース

    ダッソー・システムズ、複数の生成AIを組み込んだデジタル環境をApple Vision Proに投影する「3DLive」をリリース

    ダッソー・システムズは、同社の3DEXPERIENCEプラットフォーム上で作成されたバーチャルツインをApple Vision Proに映し出すアプリ「3DLive」をリリースすると発表した。

    「3DLive」は、Appleが提供するゴーグル型のMRヘッドセット「Apple Vision Pro」を、ダッソー・システムズの3DEXPERIENCEプラットフォームに統合することで、現実世界と同様の環境でリアルタイムな視覚化とチームコラボレーションを可能にするアプリだ。

    これは、Apple Vision Proのカメラ、センサー、トラッキングと、複数の生成AIを組み込むことで3Dデータを直感的に扱うことができる3DEXPERIENCEプラットフォームの機能である「3D UNIV+RSES」によって実現されている。

    これにより、モデリング、シミュレーション、製造、トレーニング、配送作業などに活用することができるとしている。

    ダッソー・システムズのコーポレート・ストラテジー&プラットフォーム・トランスフォーメーション担当エグゼクティブ・バイス・プレジデントであるエリサ・プリズナー氏は、「3DEXPERIENCEプラットフォームの採用が幅広く拡大していることから、今回の提携は、独自のバーチャルツインデータセット上で、AIを基盤とした我々の次世代の体験を連携して訓練する3D UNIV+RESの可能性を考慮して、当社のあらゆるお客様企業にとってユニークな価値となるだろう」とコメントしている。

    また、Appleのビジョンプロダクトグループのバイスプレジデントであるマイク・ロックウェル氏は、「Apple Vision Proは、空間コンピューティングでできることの限界を押し広げており、主要産業における人々の働き方を変えている。ダッソー・システムズとの提携により、3DEXPERIENCEプラットフォームに空間コンピューティング機能を追加することができ、エンジニアやデザイナーは、これまでは不可能だった方法で3Dデザインに簡単に実現できるようになる」と述べている。

    関連記事:ダッソー・システムズ、複数の生成AIを組み込みシミュレーションできる「3D UNIV+RSES」を発表

  • AmbiqとThinkAR、AIアシスタントを搭載した軽量スマートグラス「AiLens」を発表

    AmbiqとThinkAR、AIアシスタントを搭載した軽量スマートグラス「AiLens」を発表

    AmbiqとThinkARは提携し、日常的に着用できるように設計された軽量なスマートグラス「AiLens」を発表した。

    「AiLens」は重さ37グラムで、10時間以上のバッテリー寿命がある軽量スマートグラスだ。

    このグラスは、独自のSPOT(サブスレッショルド電力最適化テクノロジー)プラットフォーム上に構築されたAmbiqのApollo4システムオンチップ(以下、SoC)と、ThinkARの音声起動AR機能を搭載している。

    さらに、ユーザの好みを学習してカスタマイズされた応答を提供する適応型AIアシスタントを搭載し、OpenAIとサードパーティAPIをサポートする。

    また、Google、Microsoft、サードパーティプラットフォームとの直接統合ができ、カレンダー、ドキュメント、クラウドストレージにアクセスすることが可能だ。

    加えて、iOSアプリと統合することで、専用アプリケーションを提供する。なお、ソフトバンクとの提携によるAiLensの主なアプリケーションには、ヘルスケア、職場の生産性およびトレーニング、リテールおよびEコマース、ナビゲーションおよび旅行、教育およびスキル開発などが含まれているとのことだ。

    今後「AiLens」は、アマゾン、ソフトバンクジャパン、その他のオンラインおよびオフラインの小売店を通じて、北米、アジア太平洋地域、ヨーロッパで同時に発売される。米国では2025年1月から、アジア太平洋地域とヨーロッパでは2025年4月から販売が開始される予定だ。

    関連記事:
    メタバース、VR・ARの基礎と活用事例
    AR/MR ーDXキーワードテスト
    ウェアラブルとは?ウェアラブルデバイスのビジネス活用事例10選

  • NTTコノキューデバイス、XRグラス「MiRZA」に自分の声と相手の声を区別して取得するマイクを搭載

    NTTコノキューデバイス、XRグラス「MiRZA」に自分の声と相手の声を区別して取得するマイクを搭載

    株式会社NTTコノキューデバイスは、同社が開発したXRグラス「MiRZA」のソフトウェアのアップデートを、2024年12月10日に公開した。

    「MiRZA」は、Qualcomm社のSnapdragon AR2 Genを採用したワイヤレスXRグラスだ。

    今回のソフト更新では、NTTソノリティ株式会社と提携し、自分の声と相手の声を区別して取得することが可能となる、NTTの特許技術「インテリジェントマイク」を搭載した。

    「インテリジェントマイク」は、音が2つのマイクに到達する時間差から音響空間を認識して話者を特定する「ビームフォーミング」と、雑音を除去して音声だけを抽出する「スペクトルフィルター」の2つの技術をハイブリッド処理している。

    これにより、話者の声だけを自然に取り出して相手に届けることが可能となる。

    今回、「MiRZA」に「インテリジェントマイク」を搭載したことにより、指向性マイクのように集音領域を限定することで、グラスの装着者と対面話者の音声を分離する。

    従来は、全方位の集音と、通話時向けの装着者音声のみの集音に対応していたが、新たに周囲集音と前方集音の機能が追加された形だ。

    これにより、装着者の声と対人相手の声を分けた集音と、対人相手の声のみの集音ができるようになる。

    今回のアップデートにより、今後さまざまなアプリケーション開発において、集音範囲の設定を変えた録音などが可能だ。

    関連記事:
    メタバース、VR・ARの基礎と活用事例

  • ダイキンとNEC、メタバース上で空調機点検・診断ができる研修の運用を開始

    ダイキンとNEC、メタバース上で空調機点検・診断ができる研修の運用を開始

    ダイキン工業株式会社(以下、ダイキン)と日本電気株式会社(以下、NEC)は、Microsoft Corporationが提供するBtoBメタバースプラットフォーム「Micosoft Mesh」上に、空調機点検・診断ができる仮想空間を構築し、サービスエンジニア向けの体験型研修の運用を、2024年10月より開始した。

    今回開発された仮想空間での研修は、マニュアルで学んだロジックや現場で得られる運転データ、視覚要素などをもとに、不具合がでている空調機を点検するというものだ。実際の現場で提供しているサービスを仮想空間で再現することが可能だ。

    受講者や講師はそれぞれPCから仮想空間内に入り、訓練を行う。

    なお、メタバースプラットフォームとデバイスは、社内利用やBtoB利用に適した「Microsoft Mesh」と「Meta Quest 3」を採用している。

    これにより、従来の対面での実機実習では難しかったリアルな現場環境体験が得られる。また、空間内の所作や行動データをレポート化し、作業の振り返りや教科書手順との比較ができる、受講生や講師を支援する機能も搭載している。

    ダイキンとNEC、メタバース上で空調機点検・診断ができる研修の運用を開始
    サービスの概要図
  • ZOZO NEXT、バーチャル空間で先行受注会のショッピング体験ができるApple Vision Proアプリを提供

    ZOZO NEXT、バーチャル空間で先行受注会のショッピング体験ができるApple Vision Proアプリを提供

    株式会社ZOZO NEXTは、空間コンピューティング技術を用いて3Dで表現された360度のバーチャル空間でショッピング体験ができる、Apple Vision Proアプリを提供すると発表した。

    今回開発したアプリでは、3Dで表示される新作商品合計11型をチェックし、予約リストに追加する体験を提供する。なお、決済はアプリ体験終了後にレジにて行う仕様だ。

    バーチャル空間は、デジタル性を示す「グリッド」を使って歪ませており、時間が経つと空の色も変わる仕様になっている。

    また、商品をピックアップして一点ずつ回転させたり、距離を近づけて細部の仕様や形状・素材感を確認できるほか、アプリ内では新作コレクションの動画を視聴することも可能だ。

    ZOZO NEXT、先行受注会向けにバーチャル空間でショッピング体験ができるApple Vision Proアプリを提供
    バーチャル空間のイメージ

    なおこのアプリは、2024年11月16日~24日に、渋谷PARCOで開催されるANREALAGE新コレクション先行受注会で、一般の顧客が体験することができる。

    また、今回のANREALAGE新コレクション先行受注会を記念して、「時空の歪み(グリッド線)」をモチーフにした限定アイテム4型もアプリ内で予約することが可能だ。

  • タイムリープとキッズプレート、遠隔接客サービス「RURA」に顔の動きや表情を読み取るアバター接客オプションを追加

    タイムリープとキッズプレート、遠隔接客サービス「RURA」に顔の動きや表情を読み取るアバター接客オプションを追加

    タイムリープ株式会社は、株式会社キッズプレートとアライアンス契約を締結し、キッズプレートが提供する「NICE CAMERA(ナイスカメラ)」を活用したアバター接客のオプション提供を開始する。

    タイムリープは、2020年6月より遠隔接客サービス「RURA(ルーラ)」を開発・提供しており、スタッフが顔を出して接客をする「顔出し接客」と、人物イラストやキャラクターのアバターによって接客をする「アバター接客」の両方の機能を備えていた。

    しかし、これまでの「RURA」の標準アバターでは、口の動きや表情に合わせて自動でアバターが動く機能や、クライアントから持ち込みのキャラクターをアバターとして使用することには対応していなかった。

    そこで今回、キッズプレートが提供する「NICE CAMERA」を活用し、動きを読み取る専用機器などを使わず、パソコン内蔵のWEBカメラだけで、顔の動きや表情、上半身の動きをリアルタイムで読み取り、アバターに反映させる。

    「RURA」を導入する企業は、「NICE CAMERA」を利用したアバター接客が選択できるオプションプランを利用することができる。

    なお、「RURA」の運用開始後にプランを追加することも可能で、まずはスタッフの顔を出した接客を試してみた上で、アバター接客利用に切り替えることもできるとのことだ。

    店舗にいる顧客側のディスプレイには、接客スタッフの表情や上半身の動きをリアルタイムで読み取ったアバターが映し出され、スタッフは顔を映すことなく接客をすることができる。

    また、アバターはオリジナルのものを利用することができ、企業キャラクターや自社の制服を着用したキャラクターなどで接客をすることも可能だ。

  • 電通総研、AIとブロックチェーンを活用したリアルタイム3DCGソリューション「UNVEIL」のβ版を提供開始

    電通総研、AIとブロックチェーンを活用したリアルタイム3DCGソリューション「UNVEIL」のβ版を提供開始

    株式会社電通総研は、リアルタイム3DCGソリューション「UNVEIL(アンベール)」のβ版の提供を、2024年10月25日より開始する。

    「UNVEIL」は、3DCG技術を活用し、リアル映像体験を提供する独自のソリューションだ。メタバースにAIやブロックチェーンなどを組み合わせることで、没入感と対話性を実現する。

    具体的には、ゲームエンジン「Unreal Engine」のレンダリングシステム「Nanite」や、シーン内のオブジェクトに対して自然な影響を与える技術「Lumen」などを活用し、数億ポリゴンの3DCGアセットをリアルタイムで描写する。

    これにより、リアルな都市景観や自然環境、デジタルヒューマンの表現が可能になる。また、他のユーザやAIキャラクタとの自然なコミュニケーションも可能だ。

    ユーザは、スマートフォンやPC、HMD(ヘッドマウントディスプレイ)など、様々な市販デバイスから参加できる。

    また、アマゾンウェブサービスのクラウドサービスの一つであるマネージド型サービス「Amazon Elastic Kubernetes Service」の採用により、数万人規模のユーザがリアルタイムでマルチプレイを可能とするクラウドレンダリング環境を実現した。

    今後は、今回のβ版提供を通じてユーザからのフィードバックを収集し、製品の改良を重ねながら、2025年度に正式版の本格的な提供をするべく準備を進めていくとしている。

    [「UNVEIL」の紹介動画]

  • エイベックスと博報堂、IPを組み合わせた音声ARコンテンツの企画制作を行うサービス「SARF+」を開始

    エイベックスと博報堂、IPを組み合わせた音声ARコンテンツの企画制作を行うサービス「SARF+」を開始

    エイベックス・アライアンス&パートナーズ株式会社は、株式会社博報堂と、音声AR事業で連携し、IPを組み合わせた音声ARコンテンツの企画制作からマネタイズまでの運用が可能な新サービス「SARF+(サーフプラス)」の本格的な提供を開始する。

    音声ARは、「位置情報」と音楽をはじめとする「音声情報」を組み合わせた音によって現実を拡張するソリューションだ。GPSやビーコン等を使い、特定の場所に紐づけた音声コンテンツを専用アプリから多言語で配信する。

    今回発表された「SARF+」は、第一弾として、2024年10月に開催する「LDH LIVE-EXPO 2024」に連動する形で導入される。

    具体的には、Osaka Metroの駅に音声ARスポットを設置し、LDHアーティストのプレミアムな音声コンテンツ「LDH LIVE-EXPO SOUND STATION」を、10月11日から10月27日までの期間限定で配信する。

    エイベックスと博報堂、IPを組み合わせた音声ARコンテンツの企画制作を行うサービス「SARF+」を開始
    「LDH LIVE-EXPO SOUND STATION」の概要

    各音声ARスポットでは、LDHアーティストが「個人的LDH BEST HITの魅力」をそれぞれ語る音声コンテンツを聞くことができる。

    8スポットに、合計21名のアーティストの音声コンテンツを設置し、すべてのコンテンツを再生すると、同企画オリジナルデザインのスマートフォン専用壁紙がプレゼントされる。

    利用方法は、専用アプリ「SARF」をスマートフォンにインストールし、同企画のコンテンツを起動する。その状態で、Osaka Metroに乗車して移動し、音声AR設置スポットに近づくと、音声コンテンツが再生される仕様だ。

    今後は、企業や自治体の集客・販促施策として、インバウンドや大規模施設へ「SARF+」を導入していくことで、音声ARの普及促進を行なっていく計画だ。

    具体的には、これまでの音声ARコンテンツの制作に加え、コンテンツのマネタイズ(課金機能)や、利用者情報の分析(マーケティング機能)、アーティスト、タレント、声優などの自社IPを起用したPR・イベントプロモーション、インバウンド施策などが挙げられている。

    また、その他、脚本家や演出家など、様々なクリエイターとIPを組み合わせ、地域や大型施設を舞台した大規模なフィールドエンタテインメントコンテンツの企画・制作なども行っていくとしている。

  • NTTがHDMI信号を0.1 ミリ秒以下で長距離伝送信号へ変換する技術を開発、VRやARへの組込も可能

    NTTがHDMI信号を0.1 ミリ秒以下で長距離伝送信号へ変換する技術を開発、VRやARへの組込も可能

    日本電信電話株式会社(以下、NTT)は、4K120Hz・FHD240HzのHDMI信号を、0.1ミリ秒以下で長距離伝送信号へ変換する技術を開発した。

    HDMI信号とは、カメラやモニターなど映像機器から出力され、映像や音声などをまとめて送ることのできる信号で、VRやAR、リアルタイムコミュニケーションで活用される際には、低遅延かつ高画質・高音質なままであることが求められる。

    しかし、IP網利用を前提とした従来技術では、ネットワーク遅延及びネットワークの帯域不足に伴う信号圧縮による遅延や、信号圧縮による画質・音質低下が発生してしまうため、没入感の高いアプリケーションで求められる「リアルタイム性」と「高精細」は達成できなかった。

    NTTがHDMI信号を0.1 ミリ秒以下で長距離伝送信号へ変換する技術を開発、VRやARへの組込も可能
    リアルタイム性が求められるアクティビティにおける従来技術の課題

    そこで今回NTTが開発した技術では、HDMI信号を大容量・固定帯域・固定遅延のレイヤ1信号(OTN信号)へ直接収容することで、映像信号の圧縮伸張に要する処理時間を不要とし、映像品質の劣化や通信による遅延変動なしに、遠隔地への映像伝送を可能とした。

    その結果、ファイバ伝搬の遅延時間が無視できる程に小さい場合、送信側での映像入力から受信側での映像出力までの遅延時間を、0.1ミリ秒以内に抑えている。

    また、4K120Hz や FHD240Hz という高解像度・高リフレッシュレートの映像信号を圧縮なしに伝送することで、非常に動きが速い映像でも高精細かつ動きに劣化がなく、遠く離れた場所へ伝送することができるようになった。

    さらに、この技術とIOWN オールフォトニクス・ネットワーク(以下、APN)を組み合わせることにより、低遅延で高精細な映像伝送が可能となる。1秒間に120 フレーム表示される4K映像までをリアルタイムに離れた拠点間にも伝送することが可能だ。

    NTTがHDMI信号を0.1 ミリ秒以下で長距離伝送信号へ変換する技術を開発、VRやARへの組込も可能
    今回開発された技術とIOWN APNを活用した映像伝送

    なお、この技術は、FPGAで利用可能な回路情報FPGA-IPで実現しているため、ポート数やサイズなどの利用ケースに応じた多様なハードウェアとの組み合わせが可能だ。

    NTTがHDMI信号を0.1 ミリ秒以下で長距離伝送信号へ変換する技術を開発、VRやARへの組込も可能
    今回開発した回路(FPGA-IP)とハードウェアの組み合わせイメージ

    FPGA-IPはライセンス販売(技術開示)という形態で提供されており、最終製品やソリューションで利用することができる。

    これを活用することで、VRやARといった没入感の高いアプリケーションに加えて、拠点間でのタイミング合わせが重要な遠隔アクティビティや、人物同士での遠隔でのかけあいなどでのユースケースが想定されている。

    また、工場のライン監視、鉄道・交通の監視などの、これまでリアルタイムでの高精細映像での遠隔監視が難しかった領域への適用も期待されている。