タグ: ビッグデータ

  • データセクションとフレームワークス、AIとビッグデータを活用し物流事業の最適化へ向け共同研究を開始

    データセクションとフレームワークス、AIとビッグデータを活用し物流事業の最適化へ向け共同研究を開始

    データセクション株式会社と、大和ハウスグループの株式会社フレームワークスは、AIとデータを活用した次世代型物流事業の構築を目指し、共同研究を開始する。

    ECサイトの普及は消費者の生活利便性を飛躍的に向上させた一方で、多品種、小ロットによる短納期配送の実現を迫られたうえに、更なるコストの削減が求められるなど、物流業界は更なる高度化・効率化が求められている。このような状況に対応すべく、AIとデータを活用した物流領域の高度化・効率化を目指し、データセクションはフレームワークスと共同研究を開始する。

    先端デバイス活用により収集される様々な物流業務のビッグデータと各種のオープンデータを活用することで、属人業務を排除し、労働集約業務の効率化やロボットへの業務移管が可能となる状況を提供。例えば、収集したビッグデータをAIが分析判断することにより、「需給予測」ではなく、より精度の高い「需給見込」を導きだし、最適な在庫配置、最適な人員配置、最適な配車、最適なラインコントロールを実現し低コスト、短納期でのサービス提供が可能になるという。

    両社は、データセクションのディープラーニング実用化実績、データ活用ノウハウと、フレームワークスの物流業務に関するノウハウを掛け合わせることにより、時代の変化とともに必要とされる次世代型物流事業の実現を目指す。また、物流領域以外の領域においてもAIとデータを活用した事業を広く展開していくことを目指していく。

    【関連リンク】
    データセクション(Datasection)
    フレームワークス(FRAMEWORX)

  • 物流をIoTとビッグデータで効率化するHacobu、アスクルらから1.6億円の資金調達

    物流をIoTとビッグデータで効率化するHacobu、アスクルらから1.6億円の資金調達

    物流業界向けにハードウェアの設計製造販売およびアプリケーション開発を手掛ける株式会社Hacobuは、米国Visionnaire Ventures、アスクル株式会社、アーキタイプベンチャーズ株式会社、SMBCベンチャーキャピタル株式会社より、総額1.6億円の資金調達を完了した。

    Hacobuは「運ぶを最適化する」をミッションに掲げ、IoTとビッグデータの活用によって物流の効率化を目指している。同社は今回の資金調達により、物流業界向けのITプラットフォームである「MOVO(ムーボ)」の機能拡充、デジタル運行記録計「MOVO Hub(ムーボ・ハブ)」の量産を行い、さらに、2017年より開始予定のMOVO上での荷主と運送会社のマッチングサービス機能の開発を行う。

    【関連リンク】
    Hacobu
    ヴィジョネア・ベンチャーズ(Visionnaire Ventures)
    アスクル(ASKUL)
    アーキタイプベンチャーズ(ATV)
    SMBCベンチャーキャピタル(SMBC Venture Capital)

  • 経済産業省・IoT推進ラボ、第3回先進的IoTプロジェクト選考会議「IoTLabSelection」のプロジェクト募集を開始

    経済産業省・IoT推進ラボ、第3回先進的IoTプロジェクト選考会議「IoTLabSelection」のプロジェクト募集を開始

    経済産業省およびIoT推進ラボは、平成28年11月1日より第3回先進的IoTプロジェクト選考会議(IoTLabSelection)<先進的IoTプロジェクトに対する官民合同支援>のプロジェクト公募を開始した。

    IoT、ビッグデータ、人工知能等によって、世界的に産業や社会の在り方が大きく変革しつつある状況を踏まえ、日本でも、新たなIoTビジネスモデルの創出やIoTプラットフォーマーの発掘・育成を図り、新たな成長の原動力にしていくことが必要だ。このため、IoT推進ラボでは、政府関係機関、金融機関やベンチャーキャピタル等と連携し、成長性・先導性、波及性(オープン性)、社会性等の観点から優れたIoTプロジェクトに対して、資金支援やメンターによる伴走支援、規制改革・標準化等に関する支援を行うという。

    IoT、ビッグデータ、人工知能を活用して事業を行うプロジェクトを対象とし、そのためのソフトウェア開発、ハード試作、研究開発・実証等が含まれる。なお、今回から「横断的プラットフォーム枠」「地域経済活性化枠」を追加で設定された。

    • 横断的プラットフォーム枠
      特定分野のサービスに限定されず、多くの分野で利用可能なIoT、ビッグデータ、人工知能を活用する事業の基盤技術やシステムの開発等によりプラットフォームを構築するプロジェクト。
    • 地域経済活性化枠
      地方版IoT推進ラボの活動や地方自治体の取り組み等との連携、または地場産業に密着した取り組みであって、特に地域における課題の解決や地域経済の活性化に寄与するIoT、ビッグデータ、人工知能を活用したプロジェクト。

    公募期間:11月1日~12月15日12時00分まで
    支援対象者:個人、法人又は団体(法人又は団体内のチームを含む)

    応募要項や応募フォーム等の詳細は、IoT推進ラボHPを参照。

    【関連リンク】
    経済産業省

  • アスクル、日立のAI導入でマーケティングを強化

    アスクル、日立のAI導入でマーケティングを強化

    アスクル株式会社は、2014年1月に「LOHACO EC マーケティングラボ」(以下、「ラボ」)を設置しこれまで3期にわたり活動してきており、現在は日本を代表するメーカーを中心に102社が参加している。今回ラボは、さらに顧客に寄り添ったマーケティングを実現するために、新たにフレンドシップパートナー(以下、「パートナー」)を招き、ともに活動を進めていくこととなった。

    ラボはパートナーとともに、さらなるビッグデータの活用と、あわせてAIによるLOHACOの売場最適化を行うことにより、顧客への最適なアプローチとマーケティングの強化を実現するという。そして、生活者・顧客のライフスタイル志向を的確に把握することにより、ラボ参加企業が行う顧客に寄り添った商品開発やマーケティングを支援していくという。

    アスクルおよびラボは、デジタルマーケティングについての知見とノウハウを持ち、圧倒的なビューワー数を擁するコンテンツやサービスを運営しているパートナー3社に対して、顧客のLOHACO内での購買行動に関するビッグデータ(個人情報および個人を特定、再識別化できる情報を含まない)を提供。

    これらのビッグデータを分析活用することにより、パートナーのサービスを通じた顧客へのアプローチの精度が向上し、より多くの顧客と最適なコミュニケーションを実現することが可能となる。なおアスクルおよびラボは、各パートナーとは個別に連携を行い、パートナー間での連携やデータを共有することはない。

    アスクルおよびラボは、LOHACOにおける売場最適化を実現するためAIを活用する。株式会社日立製作所(以下、「日立」)は、AIに関して先進的な取り組みを行っており、人工知能「Hitachi AI Technology/H」(以下、「AT/H」)は数多くの導入実績がある。アスクルでも、2016年8月末にスタートしたLOHACOの商品受取りサービス「Happy On Time」の精度向上に向けた取り組みにおいて「AT/H」を導入しており、効果を上げつつあるという。今回、ラボにおけるデジタルマーケティングにも「AT/H」を導入し、LOHACOにおける売場最適化を実現していくという。

    <フレンドシップパートナー>
    Google Japan Inc.
    フェイスブックジャパン株式会社
    株式会社日立製作所
    ヤフー株式会社

    アスクル、日立のAI導入でマーケティングを強化

    【関連リンク】
    アスクル(ASKUL)
    LOHACO(ロハコ)
    日立(HITACHI)
    グーグル(Google)
    フェイスブック(Facebook)
    ヤフー(Yahoo)

  • 東京都、商用車の走行データを活用し、交通渋滞をビッグデータ分析

    東京都、商用車の走行データを活用し、交通渋滞をビッグデータ分析

    富士通株式会社(以下、富士通)と株式会社富士通交通・道路データサービス(以下、FTRD)は、東京都青少年・治安対策本部(以下、東京都)より、渋滞分析調査業務を受託し、商用車プローブデータ(注1)を使って交通現象を分析する、FTRDの「FUJITSU インテリジェントデータサービス 商用車プローブデータサービス」により、交通渋滞を定量的に分析した。

    同調査において、富士通とFTRDは、建設コンサルティング事業を展開する株式会社地域未来研究所の協力を得ながら、東京都全域の主要道路(注2)の内、国道と都道、および市の幹線道路の交差点間の平均旅行速度を色分けした平均旅行速度図の作成と、主要渋滞箇所433交差点(注3)の右左折直進方向別交差点通過時間分析を、2015年12月23日から2016年3月11日までの約3カ月間で実施した。

    平均旅行速度図により交差点間の交通渋滞の状況を俯瞰することで、交通渋滞が連なって発生している路線を発見しやすくなる。また、交差点の右左折直進方向別交差点通過時間分析により、具体的にどの方向へ向かう車線に渋滞が発生しているかを可視化できるため、より的確、かつ効率的な渋滞原因の究明や、効果的な施策立案に役立つ。

    東京都は、2015年3月27日公開の「東京都長期ビジョン」のうち、高度に発達した利用者視点のインフラを備えた都市の実現を目指す具体的政策展開の中で、より的確で効果的な交通渋滞対策を行うために、同調査結果を活用していく。

     

    背景

    東京都は、都内の慢性的な交通渋滞の解消に向け、既存の道路を活かし、都内の渋滞の著しい箇所に集中的な施策を行い、渋滞解消を目指す「ハイパースムーズ作戦」を2008年から実施しており、これまでも調査や取り組みを行ってきた。

    今回、より的確な交通渋滞の原因究明と効果的な施策に向け、都内主要渋滞箇所 433交差点の渋滞状況を定量的に分析するため、商用車プローブデータの分析による調査を実施した。

     

    東京都の主要渋滞分析業務の概要

    調査期間

    2015年12月23日~2016年3月11日(3カ月間)

    調査概要

    (1) 東京都全域の平均旅行速度図の作成

    商用車プローブデータの移動速度と位置情報を利用し、主要道路の1つの交差点から次の交差点までの平均旅行速度をGIS(注4)に色分けして表示した平均旅行速度図を作成。交差点間の平均旅行速度情報を連結して表示し、俯瞰可能とすることで、渋滞が長い区間で繋がって発生している路線、つまり、深刻な渋滞路線と箇所を特定しやすくする。

    (2) 主要渋滞箇所433交差点の右左折直進方向別交差点通過時間分析

    東京都の主要渋滞箇所433交差点に接続する道路について、交差点手前から交差点先までの移動に要した時間(以下、交差点通過時間)の平均値を、右折、左折、直進のそれぞれで算出し、交差点への流入部に、交差点通過時間で4段階に色分けした矢印で表示した。

    また、これに付随する調査結果として、平日7時から19時までの交差点通過時間別・流入部別の通過商用車数や、時間帯別・流入部別の平均交差点通過時間も集計し、表やグラフで提供している。

    これにより、主要渋滞箇所別や商用車が向かう方面別の渋滞状況、交差点通過速度の低下がどれだけ交通に影響をおよぼすか、などがわかる。
    東京都、商用車の走行データを活用し、交通渋滞をビッグデータ分析

    東京都は、これらの情報を、渋滞対策箇所の選定や対策検討などに活用していくという。

     

    注1 商用車プローブデータ:
    トラックなどの貨物商用車に搭載したデジタルタコグラフから1秒間隔で集められる、精緻な商用車の移動速度、位置、時刻、X軸・Y軸・Z軸の3方向の動きに対する加速度などのデータ。

    注2 東京都全域の主要道路:
    一般財団法人日本デジタル道路地図協会が定めた道路種別のうち、「その他の道路」を除く、高速道路、国道、都道、市道を含む。

    注3 主要渋滞箇所433交差点:
    国土交通省関東地方整備局により設立された首都圏渋滞ボトルネック対策協議会が特定し、2013年1月に発表した東京都の主要渋滞箇所。

    注4 GIS:
    Geographic Information Systemの略で、地理情報システムのこと。位置や空間に関する様々な情報を、コンピュータを用いて重ね合わせ、情報の分析・解析を行ったり、情報を視覚的に表示させるシステム。

     

    【関連リンク】
    富士通(FUJITSU)
    富士通交通・道路データサービス(FTRD)
    地域未来研究所(Regional Futures Research Center)
    日本デジタル道路地図協会(DRM)

  • UEI、深層学習したビッグデータの特徴空間をVRで体験できる「Feature Space Diver by DEEPstation」を開発

    UEI、深層学習したビッグデータの特徴空間をVRで体験できる「Feature Space Diver by DEEPstation」を開発

    株式会社UEIは、深層学習を用いて学習したビッグデータをマッピングした特徴空間を実際にVRで体験できる“Feature Space Diver by DEEPstation(フィーチャースペースダイバー・バイ・ディープステーション、以下 フィーチャースペースダイバー)”を開発した。

    フィーチャースペースダイバーは、文字通り、特徴空間にVR技術を利用してダイブする技術。これまで三次元の特徴空間は平面のディスプレイとして二次元の射影でしか見ることができなかった。特徴空間にマッピングされたビッグデータは、VR技術を使用することでより直感的・感覚的に把握することができ、ビッグデータの活用やAIの活用といったことに大いに役立てることができる。

    また、単にVRで見るだけでなく、実際に特徴空間を足で歩いて移動したり、スケールを変更してビッグデータの中に入り込んだり、また、見おろしたりと、まさしくさまざまな角度からデータを検証できるという。

     

    このフィーチャースペースダイバーは、6月29日(水)から7月1日(金)まで東京ビッグサイトで行われる「コンテンツ東京2016」の特設展示「AI・人工知能ワールド」にて参考出品される。

    今回参考展示されるビッグデータは、MNISTと呼ばれる0から9までの手書きされた数字を6万件分類したもので、実際に特徴空間の中でファインチューニングを掛けられると見事に分化していくアニメーションもVR空間内で体験できるようになっている。

    また、膨大なビッグデータの分析には、UEIがサードウェーブデジノスと共同開発したDEEPstation DK-1シリーズのExpert Editionが使用され、VRデモンストレーション用にはDEEPstation DK-1 Basic Editionをそれぞれ使用しているほか、分析にはUEIが株式会社ソニーコンピュータサイエンス研究所と共同開発したDEEPstationを利用している。

    なお、UEIではデモンストレーションソフトの無償配布も予定している。

    <実際の体験イメージ>

     

    “フィーチャースペースダイバー”の動作環境

    CPU:インテル Core i7-6700以上
    RAM:16GB以上
    GPU:NVIDIA GeForce GTX 980Ti 6GB 以上
    VR :htc Vive

     

    DEEPstation DK-1について

    Baisic Edition

    価格:237,000円(税別)から
    CPU:インテル Core i7-6700
    RAM:16GB ※最大32GBまで
    GPU:NVIDIA GeForce GTX 980Ti 6GB (2816CUDAコア 250W)

    Personal Edition

    価格:469,000円(税別)から
    CPU:インテル Xeon E5-1620v3
    RAM:16GB ※最大256GBまで
    GPU:NVIDIA GeForce GTX TITAN X 12GB(3072CUDAコア 250W) ※最大2枚まで

    Professional Edition

    価格:1,158,000円(税別)から
    CPU:インテル Xeon E5-2620v3 x2
    RAM:32GB ※最大512GBまで
    GPU:NVIDIA GeForce GTX TITAN X 12GB(3072CUDAコア 250W) × 3

    Expert Edition

    価格:2,999,800円(税別)から
    CPU:インテル Xeon E5-2687W v3 x 2
    RAM:512GB
    GPU:NVIDIA GeForce GTX TITAN X 12GB(3072CUDAコア 250W) × 4

     

    【関連リンク】
    ユーイーアイ(UEI)
    サードウェーブデジノス(Thirdwave Diginnos)
    ソニーコンピュータサイエンス研究所(Sony CSL)
    DEEPstation DK-1

  • 東芝、ビッグデータ分析クラウドサービス「GridData Analytics Cloud」の提供を開始

    東芝、ビッグデータ分析クラウドサービス「GridData Analytics Cloud」の提供を開始

    株式会社 東芝は、ビッグデータの収集・蓄積・分析までをワンストップで提供する「GridData Analytics Cloud」を本日6月28日から販売開始した。

    同サービスは、スモールスタートで、すぐにビッグデータ分析を始めたいという要望に応えるクラウドサービスだ。同社は、大量のセンサーデータなどを分析・活用するIoTシステムや、Webログやアプリケーションログを分析・活用し、企業の販売活動に活かすマーケティングシステムなどに向けて提案していくという。

    同サービスは、「データ分析をすぐに始めたい」、「スモールスタートで、将来にわたって拡張したい」という要望に応える。同社がオープンソースとして提供するビッグデータ向けスケールアウト型データベース「GridDB®」(注1)と、これまでデータ分析実績として培ってきた分析パターン・ノウハウに基づく分析ツール、さらにはFluentd(注2)やApache Spark(注3)などの標準的なオープンソース技術を組み合わせたクラウドサービスだ。大量のデータも高速に登録・更新・検索が可能で、データ量や処理性能に応じた柔軟な拡張が容易にできるため、分析データの拡大が見込まれる場合にも適している。オープン環境のため、利用者が要望する他のソフトウェアやサービスとも容易に連携できる。

    同社は同サービスとともに、データサイエンティストによる分析手法の提案や効果検証を行うプロフェッショナルサービスも提供する。自部門でビッグデータ分析することに難しさを感じている場合でも安心してデータ分析を試行・導入できるサービスを提供する。

     

    同サービスの利用シーン

    次のようなシステムの迅速な実現に貢献する。

    大量のセンサーデータやマシンログを分析・活用するIoTシステム

    例:工場の歩留り向上・品質改善、生産設備などの故障予兆分析、遠隔監視・保守 など

    Webログやアプリケーションログを分析・活用するマーケティングシステム

    例:購買意欲の喚起、レコメンド(おすすめ商品の推奨)、購買・人流分析、需要予測 など

     

    収集・蓄積・分析の機能・特長

    収集・蓄積・分析における機能・特長は次のとおり。

    収集

    さまざまなデータを高速かつ簡単に収集できる。Fluentdを基盤としたエージェント機能により、Webログ、アプリケーションログなどの発生周期が短いデータを簡単に収集する。また、センサーデータ、デバイスデータなどを収集する「SmartEDA®(注4)」と連携することでさまざまなデータを効率的に収集できる。さらに、ローダー機能により、CSVファイルや文書(テキスト、PDF、Microsoft® Officeデータ等)を高速に収集することができる。

    蓄積

    スケールアウト型データベースGridDB®を活用することで、大量のデータでも高速な更新や検索処理を実現する。時系列データに対応し、IoTでのデータ分析を容易にしている。また、蓄積されたデータはWeb APIで構成されるため、さまざまな外部アプリケーションとのデータ連携が容易に行える。

    分析

    IoTでのデータ分析やマーケティングデータの分析に適した分析パターン・アルゴリズムに加え、時系列データを可視化する仕組みや、さまざまな分析ツールと連携する仕組みを提供する。

    ・並列分散処理エンジン:Apache Sparkを基盤に複数の処理ユニットが同時に情報処理を実行
    ・事象パターン抽出エンジン:同社のデータ分析に関するノウハウを活かし、データの相関関係をパターン抽出
    ・テキスト分類・抽出エンジン:膨大なテキストデータを利用目的に応じた手法で分類・キーワード抽出
    ・機械学習アルゴリズムエンジン:Spark MLlibによる機械学習アルゴリズム提供 など

    さらにデータ分析の試行錯誤が容易に行えるように、Webブラウザ上でデータの可視化やパラメータ変更を簡単に行えるアナリスティック・スタジオを提供。これらにより、負担のかかっていた分析作業の負荷を軽減する。

     

    サービス価格

    スタンダードプラン:
    1ヶ月10億レコードまでの収集・蓄積・分析(Apache Sparkによるバッチ分析(注5)/アドホック分析(注6))
    350,000円(税抜)/月額 ~

     

    注1 2016年2月25日リリース「ビッグデータ向けスケールアウト型データベース「GridDB」のソースコードを公開」
    注2 Fluentd:データを収集するためのオープンソースのツール(コレクタ)
    注3 Apache Spark:オープンソースの並列分散処理エンジン
    注4 SmartEDA®:データ収集と機器の制御を行うことができる同社製ソフトウェア/クラウドサービス
    注5 バッチ分析 : 分析の処理手順や観点が一定で、定期的に行う分析
    注6 アドホック分析 : 処理手順や観点を利用者が随時変更しながら行う非定型分析

     

    【関連リンク】
    東芝(TOSHIBA)
    東芝ソリューション(Toshiba Solutions)
    GridData Analytics Cloud

  • Housmart、WEB不動産「カウル」にて人工知能によるビッグデータを活用した不動産価格推定機能をリリース

    Housmart、WEB不動産「カウル」にて人工知能によるビッグデータを活用した不動産価格推定機能をリリース

    仲介手数料最大無料のWEB不動産「カウル」を運営する株式会社Housmartは、今まで不透明性の高かった不動産価格のあり方を打破するべく、販売中物件の価格推定機能を2016年6月6日(月)リリースした。

     

    Housmart(ハウスマート)は2016年1月より仲介手数料無料のWEB不動産「カウル」を運営してきた。サービス開始4ヶ月で流通総額は5億4,000万円を超え、大きな反響を呼んでいる。

    2013年時点で、37兆円と言われる(※1)巨大な不動産市場の中で、都心部の土地の枯渇や建築費の高騰などの理由から新築マンションの価格が上昇し、2016年3月には首都圏の新築マンション平均発売価格は5,638万円とバブル期の1991年(5,999万円)以来の高値となり、平米単価が10ヶ月連続で上昇している。また販売戸数も前年同月に比べ39.6%も減少している(※2)ことから、中古マンションに大きな注目が集まっている。

    一方、中古マンションにおいては、売買事例が十分に一般公開されておらず、購入の適正価格が消費者に分かりにくいという大きな問題点があった。

    Housmartはこのような社会的課題の解決に向け、2016年6月6日(月)より人工知能による販売中物件の価格推定機能をリリースする。

     

    新たにカウルで提供開始する価格推定機能は、カウルが保有する約700万件におよぶ過去の売買・賃貸事例、新築時の分譲価格などのビックデータを人工知能により分析し、現在売りに出されている物件の適正価格を提示するという機能だ。ユーザーは一目でその物件の適正金額を知ることが出来るため、ストレスの無い意思決定や、値引き交渉に役立てることが可能。

    価格推定機能の開発には1年の歳月をかけ、Amazonランキング1位を獲得した「中古マンション本当にかしこい買い方・選び方」の著者でもある株式会社Housmart代表・針山監修の元、機能のチューニングを実施。約4,000項目にも及ぶ価格算出の為の評価項目の多さと、不動産の専門家によるチューニングがカウルの価格推定機能の特徴となっている。

    Housmart、WEB不動産「カウル」にて人工知能によるビッグデータを活用した不動産価格推定機能をリリース

     

     

    ※1 財務省 財務総合政策研究所 法人企業統計年報特集(平成25年度)2.業種別 規模別資産 負債 純資産及び損益表 不動産業より引用

    ※2 不動産経済研究所 首都圏マンション 2016年3月度より引用

     

    【関連リンク】
    ハウスマート(Housmart)
    カウル(kawlu)

  • NTTデータ、中国でのビッグデータを活用した「渋滞予測・信号制御シミュレーション」の実証実験で渋滞緩和効果を確認

    NTTデータ、中国でのビッグデータを活用した「渋滞予測・信号制御シミュレーション」の実証実験で渋滞緩和効果を確認

    株式会社NTTデータは、中国・貴陽市において貴陽市政府協力のもと、中国科学院ソフトウエア研究所(以下、ISCAS)と、交通管理用のカメラデータの解析結果を用いた交通シミュレーション・信号制御技術の実証実験として、基となるデータの収集を2016年2月22日から3月6日まで行い、その後解析を実施した。

    同実証実験では、貴陽市の交差点に設置された約100台の交通管理カメラを通じて収集したのべ100万台に関するデータ分析結果を基に渋滞予測・信号制御シミュレーションを行い最適化した信号設定を、貴陽市内の新市街である観山湖区内の12交差点の信号機約100機に反映して交通を制御し、渋滞緩和および交差点における交通処理量の改善効果を検証。その結果、対象区間における移動時間が平均で10%、最大で51%改善されたこと、交通処理能力も平均34%改善したことが確認された。

    NTTデータでは今回の実証実験の成果を受け、さらに対象エリアを拡大した実証実験を今夏に実施し、信号制御最適化ソリューションの実用化を目指す。また、日本国内および世界各国で導入が進められているスマートシティ関連プロジェクトへの展開を図り、2020年度末までに国内外で100億円の売り上げ創出を目指すという。

     

    背景・共同研究の概要

    近年、世界各国において、情報技術を活用したより利便性の高い社会を実現するスマートシティの取り組みが進められている。中国・貴州省の省都である貴陽市においても、経済成長や都市化の進展により、市内中心部の交通渋滞が課題となっている。すでに貴陽市では交通管理用のカメラを通じた交通モニタリングシステムや最新のネットワーク化された信号機を導入した交通管制システムなどの高度道路交通システム(Intelligent Transport Systems:ITS)による公共交通管理や道路交通管制の取り組みが進められてきた。

    NTTデータは、交通ビッグデータを用いた渋滞予測・信号制御シミュレーション技術の開発にこれまでも取り組んでおり、2014年には中国・吉林市においてバスGPSデータを用いた渋滞予測・信号制御シミュレーションによる渋滞緩和の実証実験を行い、その効果を実証した。

    ISCASは、中国における交通に関する知見はもとより、統計分析処理における高度な技術を保有しており、研究拠点として貴陽市に分院を設立している。交通分野においては、交通流量の把握等を目的とした交通管理用のカメラを用いたビッグデータの分析技術を保有し、貴陽市において実運用を行っている。

    NTTデータとISCASは、2014年4月に設立した中国科学院ソフトウエア研究所とNTTデータ技術開発本部との共同研究センターにおいて、交通管制の自動化を目指した大規模かつリアルタイムのカメラデータ処理技術と交通シミュレーションによる渋滞予測・信号制御を組み合わせた渋滞緩和技術を開発し、実証実験に取り組んだ。なお、交通ビッグデータの活用による渋滞緩和実験は、貴陽市にとって初の取り組みとなる。

     

    実証実験の概要

    同実証実験では、貴陽市内の新市街である観山湖区内12交差点の交通管理用カメラデータで撮影されたのべ100万台の車両を分析して得られた交通ビッグデータについて、渋滞予測・制御シミュレーションが行われた。この中で渋滞緩和につながる最適な信号パラメーターを生成し、最も渋滞緩和効果が見られた信号パラメーターを同交差点内の信号機約100台に反映。

    効果検証では、通勤経路の移動時間や対象交差点を通過する車両台数を基にした交差点処理能力を信号制御最適化前後で比較し、渋滞緩和効果が評価された。

    ・対象エリア:中国・貴陽市観山湖区12交差点
    ・交通管理用カメラの台数:約100台
    ・対象信号機:約100機
    ・対象車両数:のべ100万台

    NTTデータ、中国でのビッグデータを活用した「渋滞予測・信号制御シミュレーション」の実証実験で渋滞緩和効果を確認
    交通管理カメラと交通シミュレーションの連携に基づく信号制御

     

    実証実験結果

    運行時間の改善

    対象エリアを通過する車両をナンバープレートで識別し対象区間を通過する車両の移動時間を検証した結果、実験における信号パラメーターの変更により、交差点間の連動や青信号が点灯している時間の長さを改善したエリアにおいて、移動時間が平均10%、最大51%改善した。

    交差点処理能力の改善

    交差点ごとの単位時間あたりの処理台数を分析した結果、信号間の連動を考慮して信号を制御した交差点で、平均処理台数が平均34%程度改善しており、交差点の処理能力が実験前よりも向上していることが分かった。

    以上の結果から、交通管理カメラのデータ分析と交通シミュレーション技術の組み合わせによって、交通渋滞が緩和できることを確認。なお、同実験にて顕著な渋滞の改善結果が得られたため、同実験のさらなる展開を貴陽市政府から期待されており、実証エリアを拡大して最適化対象と範囲を広げたり、タクシーGPSの活用等情報源を増やすなどの取り組みを検討の上、新たな実証実験を今夏に予定されている。

    NTTデータ、中国でのビッグデータを活用した「渋滞予測・信号制御シミュレーション」の実証実験で渋滞緩和効果を確認
    実証対象の交差点と実験結果

     

    今後について

    今回の実証実験の成果を受けた今夏の実証実験後、交通管制システムとのリアルタイム接続による渋滞制御の完全自動化を目指す。また、同実証実験も含めた実績を基に交通シミュレーションと信号制御技術を組み合わせた渋滞緩和ソリューションを実用化し、日本国内および世界各国への展開などを通じて、スマートシティの実現に向けた取り組みを推進していく。

    さらに、世界各国で導入が進められているスマートシティ関連プロジェクトへの同技術の展開を図り、信号制御最適化ソリューションをベースとしたシステム構築・運用により、2020年度末までに国内外で100億円の売り上げ創出を目指すという。

     

    【関連リンク】
    NTTデータ(NTT DATA)
    中国科学院ソフトウエア研究所(ISCAS/中国科学院软件研究所)

  • オプトデータサイエンスラボとポッカサッポロ、ビッグデータを活用した豆腐適正生産量の予測モデルを開発

    オプトデータサイエンスラボとポッカサッポロ、ビッグデータを活用した豆腐適正生産量の予測モデルを開発

    株式会社オプトホールディング運営するビッグデータ研究機関である「オプトデータサイエンスラボ」と、ポッカサッポロフード&ビバレッジ株式会社は、ポッカサッポロの子会社で豆腐等の製造販売を手がける日本ビーンズ株式会社における豆腐の適正生産量を予測するモデルのコンテストを開催し、そこから得られた有用な予測モデルを実際の適正生産量の予測ツールとして導入した。これにより、過剰生産による「食品ロス」を減らすことが期待できる。

    なお、同コンテストはwebサイト上で行われ、全国からの応募を受け付け、総応募数は1,665件となった。

     

    背景

    豆腐は古来から食べられてきた日本食の一つで、長寿食といわれてきた。近年では、健康食品やダイエット食品として話題となり、世界的に注目されている。このように、食品として多くの魅力を持つ豆腐だが、保存期間が短く、在庫として持つことができないという日配品ならではの特性を持ちあわせている。日本ビーンズの製造工場では、需要予測を担う担当者が長年の経験をもとに、次の日の売れ行きを予想して豆腐を製造しているというが、もし欠品した場合は、売上機会損失や顧客の信頼低下を招き、一方で、売れ残ってしまうと、その豆腐は廃棄されることになってしまうという。

    このような食品の廃棄に関する問題は「食品ロス」と呼ばれ、現在日本が直面している社会問題のひとつだ。日本では年間約1,700万トンの食品ロスが排出され、このうちの可食部分は500~800万トンとも言われており、これは世界全体の食糧援助量の約2倍に相当する。(※)限りある資源を有効に活用しつつ経済を健全に発展させるためには、食品生産の需要予測の精度を高めることが重要となり、そのためには各企業が食品ロスの改善に向けてできることを地道にすすめていくことが必要だ。

    そこでポッカサッポロおよび日本ビーンズはオプトデータサイエンスラボと共同で、ビッグデータを活用した予測モデルを開発して豆腐の適正生産量を的確に予測することを目的に、予測モデルのコンテストを行った。

    ※農林水産省「食品ロス削減に向けて~NO FOODLESS PROJECT~」資料(2014年12月)より

     

    コンテストの概要

    事務局からコンテスト参加者にドコモ環境センサーネットワークの気象データ、気象庁データ、日本ビーンズにおける豆腐製品の特売予測データを提供し、これをもとに適正な生産量を予測するためのモデルを構築してもらった。過去のこれらのデータと豆腐の販売実績を正とし、コンテスト期間中の予測数値と実績の誤差が最も少ないモデルを上位としている。コンテストでは、複数の豆腐製品の予測モデルを募集し、全ての製品の予測精度が総合的にもっとも精度の高いモデルを優勝とした。ある特定の製品においては、日本ビーンズで実際に需要予測を担っている担当者による予測精度より約15%の精度改善が見られたという。

    参考:コンテスト参加者募集ページ 「Save the 豆腐! ~豆腐はおぼろなれども予測は明快たるべし~」

     

    今後の展望について

    「食品ロス」問題は生産量の調整だけでなく、流通・小売面からのアプローチも重要だ。オプトデータサイエンスラボでは、そうした業種の企業とともに課題解決に取り組んでいくとともに、医療や流通、金融など社会的関心の高いテーマに取り組み、よりよい社会の実現を目指していく。

    また、ポッカサッポロおよび日本ビーンズでは、今後需要予測担当者による従来の生産量予測と並行し、同コンテストにおける予測モデルを活用し、豆腐の生産を行うことで「食品ロス」問題解決に向け、引き続き努力していく。