タグ: グーグル(Google)

  • Google Cloud、AIエージェントが買い物とカスタマーサービスを統合的に支援する「Gemini Enterprise for CX」を発表

    Google Cloud、AIエージェントが買い物とカスタマーサービスを統合的に支援する「Gemini Enterprise for CX」を発表

    購入からサポートにおいて、従来のチャットボットや顧客対応システムは静的であり、ウェブサイト、アプリ、電話といったチャネル間で情報が分断されている。

    そのため、顧客はチャネルを変えるたびに同じ説明を繰り返す必要があり、企業にとっても顧客満足度の低下や機会損失につながっているのが実情だ。

    こうした中、Google Cloudは、小売業や飲食業向けに、買い物とカスタマーサービスを単一のインテリジェントなインターフェースで統合するエージェント型ソリューション「Gemini Enterprise for Customer Experience(CX)」を2026年1月11日に発表した。

    同ソリューションは、従来のチャットボットのように単に情報を提供するだけでなく、AIエージェントが顧客の意図を理解し、複雑な推論を行って自律的にアクションを実行することができる。

    具体的なエージェント機能の一つとして「ショッピングエージェント」が新たに搭載された。これにより、テキストだけでなく画像や音声を含むマルチモーダルな対話が可能だ。

    例えば、手書きのレシピの写真をアップロードすると、AIが材料を読み取り、在庫状況やセール情報を加味してカートに追加するといった処理を行う。

    また、「ペットの毛に強く、90インチ以下のエメラルドグリーンのベルベットソファ」といった複雑な条件に対しても、製品仕様書を横断的に検索し、部屋の制約と照らし合わせて最適な商品を提案する。

    購入後のサポート領域においても、AIエージェントが「能動的な問題解決」を担う。商品の破損や不満が生じた際、AIが代替品の在庫確認から発送手配、クレジットの付与までを単一のインタラクションで完結させることが可能だ。

    これにより、人間のオペレータはより高度な判断を要する案件に集中できるようになる。

    さらに、企業がパーソナライズされたマルチモーダルサポートエージェントを大規模に構築、テスト、導入することができる「Customer Experience Agent Studio」機能も提供される。

    これは、「ショッピングエージェント」と直接接続し、過去のチャットログやドキュメントを読み込ませることで、AIが自動的にエージェントを構築する「AI-builds-AI」機能を備えている。これにより、専門的なエンジニアリングなしに数日で高度なワークフローを展開できる。

    なお、同ソリューションは既に、米国の小売業を展開するクローガーやロウズ、オーストラリアのウールワースなどが導入を進めている。

    また、ピザデリバリーチェーンを展開するパパ・ジョンズでは、フードデリバリー注文エージェントとして活用しており、メニューの文脈に基づいたアップセル(追加提案)を行うことで、注文単価の向上と業務効率化を実現しているとのことだ。

  • KDDI、GoogleのAIモデル「Gemini」を活用した生成AIソリューションを提供開始

    KDDI、GoogleのAIモデル「Gemini」を活用した生成AIソリューションを提供開始

    KDDI株式会社は、同社が展開するAI時代のビジネスプラットフォーム「WAKONX(ワコンクロス)」を構成するアセットとして、Googleの生成AIモデル「Gemini」を活用した生成AIソリューションを、2024年10月7日より提供開始する。

    このソリューションを活用することで、「Geminiモデル」を活用して企業内データと連携し、効果的な生成AIチャットの業務活用や、企業のホームページサイト内検索機能の実装を可能にする。

    KDDI、GoogleのAIモデル「Gemini」を活用した生成AIソリューションを提供開始
    「Gemini 活用 生成AIサイト内検索ソリューション」の構成図

    また、KDDI社内での「Geminiモデル」の活用事例も存在する。一つ目は、「Geminiモデル」を利用したペルソナ解像度向上の検証だ。

    KDDIとauコマース&ライフが、自社で保有するデータを基に「Geminiモデル」を活用しペルソナを生成。そのペルソナに向けて広告の配信を行った結果、CTR(クリックスルーレート)が向上したのだという。

    二つ目の事例は、メタバース・Web3サービス「αU」と「Gemini Proモデル」の連携による生成AIサービスの提供だ。

    服の画像1枚から体形に合った試着イメージを生成し、店舗に訪れなくても自分が着たイメージを確認できるショッピング体験などを提供した。

  • Google、軽量な日本語版LLM「Gemma 2 2B」を公開

    Google、軽量な日本語版LLM「Gemma 2 2B」を公開

    Googleは、同社が東京で開催した「Gemma Developer Day」にて、日本語版の大規模言語モデル(以下、LLM)「Gemma 2 2B」を公開した。

    「Gemma 2 2B」は、軽量でテキストからテキストを生成する、デコーダのみのLLM「Gemma」の最新版だ。なお「Gemma」は、同社の生成AI「Gemini」モデルと同じリサーチとテクノロジーによって開発されている。

    「Gemma 2 2B」の同社の評価では、 GPT-3.5を上回るパフォーマンスを発揮し、モバイル端末での処理能力や日英両言語における高い品質を維持しているとしている。この結果は、モデルのサイズを考慮すると、Gemmaモデルが英語以外の言語でも高い性能を発揮できる可能性を示しているのだという。

    また、このモデルと併せて、トレーニングガイドも公開し、開発者がGemmaを多言語に適応させるための実践的な例として支援する。

    今後は、東京科学大学 情報理工学院 情報工学系の岡崎直観教授らの研究チームと協力し、日本におけるオープンモデルの開発支援、および新しい技術開拓への取り組みも進めていく計画だ。

  • Google Cloud、企業の生成 AI 運用を支援する最新アップデートを発表

    Google Cloud、企業の生成 AI 運用を支援する最新アップデートを発表

    Google Cloudは2024年9月24日に、AIの活用事例を紹介するグローバルバーチャルイベント「Gemini at Work」を開催し、最新のAI製品アップデートとAIポートフォリオを発表した。

    一つ目の発表は、生成AI「Gemini」モデルのアップデートだ。Vertex AI上からアクセス可能なGemini 1.5 ProとGemini 1.5 Flashモデル最新版の一般提供を開始した。これらのモデルは、数学能力や長いコンテキストの理解、ビジョンの品質向上を実現する。

    なお、Gemini 1.5 Flashの新バージョンはGPT-4o miniより60%高速だ。また、200万のコンテキストウィンドウを備えたGemini 1.5 Proも一般提供中で、2時間の動画の分析や、非常に大きなコードベースまたは長い契約書や財務文書に関する質問への回答など、複雑なタスクに対応する。

    さらに、8月にGemini 1.5 Flashを改良し、コストを最大80%削減した。今回、Gemini 1.5 Proにも同様の改良を施し、入力トークンと出力トークンの両方でコストを50%削減。この価格改定は、2024年10月7日よりVertex AI上で有効になる。

    また、一般提供を開始した「Gemini」で使える画像生成AIモデル「Imagen 3」では、プロンプトの理解、指示への追従性、フォトリアリスティックな品質、画像内のテキストレンダリング制御がさらに向上している。

    二つ目は、Data Residency(保存時の暗号化)への取り組みだ。現在、保存中とML処理中(※)の2種類のData Residencyに関するコミットメントを提供している。Google Cloudは最近、ML処理に関する取り組みをカナダリージョンに拡大し、今後数週間のうちに日本とオーストラリアのリージョンにも拡大する予定だ。

    ※ML処理中:プロンプト インジェクション、推論、出力生成などといったデータの機械学習処理を、データが保存されている同じ特定の地域または複数の地域内で実行すること。

    Google Cloud、企業の生成 AI 運用を支援する最新アップデートを発表
    ML処理に関する取り組み予定

    三つ目は、新たに発表されたCustomer Engagement Suite with Google AIだ。この新しいアプリケーションは、Google Cloudの対話型AI製品と、オムニチャネルのContact Center as a Service (CCaaS)機能、そしてGoogleの最新のGemini 1.5 Flashモデルを組み合わせたものだ。

    これにより、Web、モバイル、音声、メール、アプリといったオムニチャネル機能を単一のプラットフォームで実現することができる。企業はチャネル全体で顧客とやり取りできるようになり、カスタマーオペレーションからのリアルタイムデータを分析できるようになる。

    さらに、運用マネージャーと品質保証チームは、KPI、優先すべき問い合わせ内容のカテゴリ、および顧客エンゲージメントを向上させるための改善領域を把握することが可能だ。

    また、「Gemini」のマルチモーダル機能が、テキスト、音声、画像などのマルチモーダル情報をサポートする。例えば、携帯電話会社に携帯を下取りしてほしいと電話で伝えた際、バーチャルエージェントがプロセスを説明し、手順が記載されたメッセージも送られてくる。さらに分かりやすいよう、バーチャル エージェントは、質問に対する回答とともに、役立つ画像や視覚補助を携帯電話に直接送信してくれる。

    四つ目が、スタンドアロンの「Gemini アプリ(gemini.google.com)」が、Google Workspaceの「Business」「Enterprise」「Frontline」の各プランに含まれたことだ。

    ユーザは管理コンソールを通じて、「Gemini アプリ」におけるユーザプロンプトと生成された応答の保持方法を、選択および制御できる。また、組織のデータ、ユーザプロンプト、生成された応答を、「Gemini」モデルのトレーニングや改善に使用しないことを保証する。

    五つ目が、新たなセキュリティ アドバイザーだ。このセキュリティ アドバイザーは、企業の事業に合わせた洞察、実用的なガイダンス、さらなる脅威防止とデータ保護の制御を、IT管理者にメールで直接提供し、組織のセキュリティ体制を強化するためのカスタマイズされた推奨事項を提供する。

    これには、おすすめの脅威防御、アカウントのセキュリティ対策、データ保護機能を実装するためのガイド付きエクスペリエンスが含まれている。

    今後数週間のうちに、セキュリティ アドバイザーは、Workspace Businessエディションのすべてのユーザに提供されるとのことだ。

  • ウェザーニューズとGoogle、AI活用を活用した気象予測技術「Google ナウキャスト」を共同開発

    ウェザーニューズとGoogle、AI活用を活用した気象予測技術「Google ナウキャスト」を共同開発

    株式会社ウェザーニューズは、GoogleのAIを用いた新たな気象予測技術である「Google ナウキャスト」を、Googleと共同で開発した。

    これにより、Googleで天気を検索すると、5分ごと最大12時間先までの雨量予測が2024年7月より表示される。

    ウェザーニューズとGoogle、AI活用を活用した気象予測技術「Google ナウキャスト」を共同開発
    Google 検索結果画面に表示される「Googleナウキャスト」のイメージ画像。画面中央が今回開発した5分毎の雨量予測

    雨量予測の開発には、約13,000地点の観測データやお天気アプリ「ウェザーニュース」のユーザから寄せられる天気報告を反映した、独自の解析雨量データが用いられている。

    また、ウェザーニューズから過去および5分毎のタイムリーな解析雨量データをGoogleのAI予測モデル「MetNet-3」に学習させることで、高精度な予測を可能にしているとのことだ。

  • KDDI、メタバースサービス「αU」とGoogleの生成AIモデルを連携したサービスを提供

    KDDI、メタバースサービス「αU」とGoogleの生成AIモデルを連携したサービスを提供

    KDDI株式会社は、メタバース・Web3サービス「αU」と、Googleの生成AIモデル「Gemini Proモデル」などを組み合わせたサービス提供を目指す取り組みを、2024年2月26日から開始する。

    「αU」は、生成AIを使ってクリエイティブ支援するサービスだ。服の画像1枚から体形に合わせた試着イメージを生成し、店舗に訪れなくても自分が着たイメージを確認できるショッピング体験や、音楽ライブ映像の空間演出をリアルタイムに生成可能なエンタメ体験などが可能だ。

    これは、KDDIがグーグル・クラウド・ジャパン合同会社とXR技術を活用したビジネス共創に向けた業務協力覚書を締結した後、Google CloudとKDDIの各技術チームが協力して、新たなXR体験の創出と普及に取り組んできた結果だ。

    この取り組みは、生成AIの活用まで拡大する予定で、その一環として、Googleの最新技術を活用した実験を行うGoogle Partner Innovationチームと協力して、生成AIを活用した体験を創出するとしている。

    他にも、「Gemini Proモデル」などの生成AIとKDDIの技術を組み合わせた機能を、「αU on cloud」の名称で企業向けに提供する予定だ。

    これにより、企業は自社製品やサービスに「αU on cloud」の生成AI機能を組み込み、高度化することが可能になる。

    また、スタートアップ企業には、事業共創プラットフォーム「KDDI ∞ Labo」を通じて、大企業とのマッチングや開発サポートなど、追加支援を行う。なお、このサービスは2024年春頃に申し込み受付を開始する予定だ。

    これらの取り組みは、2024年2月に開催されるMWC Barcelona 2024で展示され、2024年度以降に順次商用化される予定だ。

    [生成AIサービスのイメージ動画]

  • GoogleがChatGPT対抗AIとなる「Bard」を発表

    GoogleがChatGPT対抗AIとなる「Bard」を発表

    昨年、OpenAIがChatGPTをリリースして以来、対話型AIの利用がすさまじい勢いで進んでいる。

    そのコアなテクノロジーを使って、リサーチサービスを考える人も登場してきていて、我々ニンゲンがインターネットに向かって投げかける「問い」に対する「解」のあり方は、大きな転換点を迎えようとしている。

    これまで、検索エンジンというと、その箱にキーワードを入力する。入力されたキーワードは、「ニンゲンがそれを調べたい」という意思でもあるから、検索エンジンは、世界中のウェブサイトから、そのキーワードを解説してくれるページを探し、重みづけをして羅列する。

    我々は表示された「検索結果」を上から3つ目くらいまで読むことで、自分の「問い」に対する「解」を理解するのだ。

    「ピアノには幾つの鍵盤がありますか」

    といった、単純な問いでは十分に回答されてきたし、実際Googleで検索すると、検索結果に表示されるページを見るまでもなく、「88鍵」であることがわかる。しかし、

    「ピアノとギターのどちらが習得しやすいか、それぞれどのくらいの練習が必要ですか」

    といった、一歩踏み込んだ質問には、それっぽいページを羅列することしかできなかった。

    実際に、ChatGPTを使ってみると、こういった複雑な質問に対して、AIが世界中の情報を集めて、それっぽい回答をしてくれる体験をできることができる。

    この体験は、これまでの検索エンジンによる体験とは大きく異なることは体験した人であればよくわかるはずだ。

    そこで、OpenAIに多額の投資をしているMicrosoftは、このChatGPTを自社の検索エンジンBINGに搭載すると言われており、これにより、Google一人勝ちの検索エンジンに関する勢力図が大きく変化するのではないかと言われていた。

    しかし、本日、Google CEOのサンダー・ピチャイは、自社のブログで同様のことができるAI「Bard」を発表。現在テスト中で、数週間後には我々も利用可能になるという発表をした。

    このBardは、2年前に発表したLAMDAを発展させたもので、「世界の幅広い知識と、大規模な言語モデルの力、知性、創造性を組み合わせることを目指しています。Web からの情報を利用して、新鮮で質の高い応答を提供する」ということだ。

    ブログでは、Bard を使用して、NASA のジェームズ ウェッブ宇宙望遠鏡からの新しい発見を 9 歳の子供に説明するなど、複雑なトピックを簡素化した例をみることができる。

    この春、我々のインターネット体験は大きくアップデートされるのかもしれない。

    参考:Google blog

  • ウイングアーク1stのMotionBoardとGoogle CloudのManufacturing Data Engineが連携、製造業のデジタルツインを支援

    ウイングアーク1stのMotionBoardとGoogle CloudのManufacturing Data Engineが連携、製造業のデジタルツインを支援

    慢性的な人手不足、消費者ニーズの多様化やそれに伴うプロダクト開発サイクルの短期化、COVID-19によるサプライチェーンの再構築の必要性など、日本の製造業を取り巻く環境は日々変化している。

    こうした変化を読み取り迅速に対応するためには、企業内外のデータを活用したDXが経営・現場ともに急務となっている。特に、大手企業の製造業を中心に3Dマップなどで仮想的にデジタル複製する「デジタルツイン」はデータの視覚化による予測シミュレーションやコストメリットの観点から重要な経営戦略だが、技術者のスキルセットや老朽化による機器のリプレースなど、必要なデータの収集や可視化にいたるまでにも課題を解決する必要がある。

    ウイングアーク1st株式会社は、ウイングアーク1stのBIダッシュボード「MotionBoard」とGoogle Cloudの「Manufacturing Data Engine」を連携した製造業向けソリューションの提供を開始した。

    MotionBoardは、複数のデータソースを集約してリアルタイムに可視化することで、データに基づいた意思決定やアクションを実現するBIダッシュボードである。地図上での分析やIoT連携などデータ活用もノンプログラミングで実装できるほか、業種・業務の利用シーンに応じたサンプルダッシュボードも搭載されている。

    Manufacturing Data Engineは、デジタルツインを構成する製造IoTデータ基盤として、生産現場で発生するデータを正規化し階層構造に割り付けて提供する。

    今回の連携では、3Dモデリングやカメラ連携を得意とするMotionBoardがManufacturing Data Engineで提供されるデータを可視化する。

    また、国内外250種類以上の産業用通信プロトコルでデータ収集を行うエッジソリューションもあわせて提供し、数項目の設定を行うだけで各種生産設備からのデータ収集がすぐに開始できる。これにより、クラウドを活用してスケーラブルなシステム構築が可能となり、小規模なシステムから導入から始められ、導入効果を確認しながら経済的なシステム投資が可能となる。

    さらに、IoTデータだけでなく、ERPや生産管理システムなど企業レベルのシステムからもデータを収集し、様々なデータをGoogle Cloudの分析基盤に集約することができる。生産現場のデータと工場経営のKPIの関連付けを行い、MotionBoardによって視覚化することで、データをもとに迅速な現場アクションと経営判断の実施を支援する。現場ユーザのデータ活用を促進して、データの民主化を加速させることで製造業におけるDXの推進に貢献する。​

    同連携により、例えば、各工程でエネルギー計測を行い、生産指図ごとのエネルギー使用量を計測して製品ごとのカーボンフットプリントを算出することができるほか、工場データの一元管理および分析、AIによる品質検査と不適合要因の分析、工程の異常検知とOEE予測メンテナンス、工場データの統合によるマスカスタマイゼーションの実現に利用できるとしている。

  • AWS・Google Cloud・IBMなど、エッジとクラウド間の情報交換にOPC UA技術を採用

    AWS・Google Cloud・IBMなど、エッジとクラウド間の情報交換にOPC UA技術を採用

    IoTベンダーのAmazon Web Services、Google Cloud、IBM、Microsoft、SAP、SIEMENSが、安全な情報交換のために、エッジとクラウド間のアプリケーションにOPC UA技術を採用したことを発表した。

    OPC UAは、生産システムに関連する情報モデルとサービスを定義、発見、利用するための標準化された方法を採用している。この標準化されたセマンティック情報共有のアプローチにより、クラウドでの非標準的な情報モデルの取り込みに必要なベンダロックインやコストのかかるカスタムプログラミングを防止できるという。

    UA Cloud Libraryの発表により、OPC UAの情報モデルは全クラウドアプリケーションでグローバルに利用できる。そして、クラウドアプリケーションはOPC UAベースのセマンティック情報やエッジからのライブデータを容易に直接利用できるようになる。

    また、トランスポートに依存しないIEC規格として、OPC UAは生産システムからエッジ、クラウドシナリオまで異なる産業要件に対応するため、2つの異なる通信パターン(Client/Server(e.g. TCP or WebSocket)とPublish/Subscribe(e.g. UDP or MQTT))をサポートしている。

    さらに、OPC Foundationの品質保証プログラムは、OPC UA Publish/Subscribe通信パターンに広げられており、最初のマルチベンダー、マルチクラウド標準を形成している。

  • ホンダとGoogle、音声アシスタントやナビゲーション等と連携した車載向けコネクテッドサービスで協業

    ホンダとGoogle、音声アシスタントやナビゲーション等と連携した車載向けコネクテッドサービスで協業

    本田技研工業株式会社(以下、Honda)とGoogle LLC(以下、Google)は、2015年から自動車業界全体でAndroidプラットフォームの自動車への導入に向けて協力してきた。その成果として、2016年発売のAccordより「Android Auto」の搭載を開始し、スマートフォン機能をドライバー向けに最適化させることで、安全かつ快適に利用できるUXを提供してきた。

    このほど、HondaとGoogleは、Googleの車載向けコネクテッドサービスで協力し、Hondaの2022年後半に北米で発売する新型車に搭載を開始し、順次グローバルに展開していくことを発表した。

    同サービスにより提供される主な機能は以下の通り。

    • 音声アシスタント
    • 車内のディスプレイオーディオに搭載された「Google アシスタント」により、ドライバーは道路から目を離さず、且つハンドルを持ったままで、音声による操作で簡単に用事を済ませることができる。メッセージの送信や経路案内、メディアや車両機能、対応するスマートホームデバイスの操作が可能だ。

    • ナビゲーション
    • 「Google マップ」を統合することで、スマートフォン等で日頃使い慣れたパーソナライズされたGoogleマップが車載ディスプレイオーディオでも使用可能となる。さらに、Googleに話しかけることで、運転をしながら自宅までのナビゲーションや到着予定時刻の共有、最寄りのガソリンスタンドやEV充電スタンドの検索、店舗の営業時間の確認などが簡単、安全に操作可能となる。

    • 車載用アプリケーション
    • 「Google Play」では、お気に入りのアプリを簡単に楽しんだり、ダウンロードしたりすることができる。スマートフォンを使わずに車内から直接、音楽やポッドキャスト、オーディオブックを聴くことが可能となる。豊富な車載用アプリケーションによって、利用者により快適な移動の時間を提供する。