カテゴリー: 生産性向上

生産性向上を、AIや業務フロー改善、デジタル技術などで実現します。その際のノウハウや、事例を紹介。

  • アンケート収集から資料作成までを自動化するには?設問設計やワークフロー構築方法を解説

    アンケート収集から資料作成までを自動化するには?設問設計やワークフロー構築方法を解説

    イベントやセミナーの開催において、参加者の生の声を拾い上げる「アンケート」は、施策の成否を判断し、次回の質を向上させるために欠かせない重要なプロセスです。

    しかし、アンケート業務を任された担当者は、単にデータを集計するだけでなく、膨大な自由記述の中から示唆に富んだ意見をピックアップし、改善に向けたインサイトを導き出さなければなりません。

    さらに、抽出したデータをグラフ化し、報告用のスライド資料としてまとめ上げ、関係各所へ共有するなど業務は多岐にわたります。

    こうした事務的な作業に忙殺され、担当者のリソースは常に逼迫し、肝心の「改善策の立案」といったクリエイティブな業務に時間を割けない工数過多の状態に陥りがちです。

    こうした状況を打破しようと、分析やレポート作成を外部の専門業者に委託すれば多額のコストがかかるため、「スピード感を持ちながら、低コストで分析・報告を内製化したい」と考える企業も多いのではないでしょうか。

    その第一歩として、以前の記事では、生成AIが「設問設計」や「自由記述の要約・分類」といった定性的なタスクを自動化する方法について紹介しました。

    一方で、「正確な数値集計」や「日本語フォントを維持したグラフ作成」などの定量的な処理には、依然として精度の不安定さが残ることが明らかになりました。

    以前の記事はこちら:生成AIを顧客アンケートの設問設計・分析に活用するには?ChatGPT・Geminiを活用して精度を検証してみた

    そこで本記事では、前回の検証結果を踏まえ、生成AIの「思考力」とプログラム(Google Apps Script:以下、GAS)の「正確性」を組み合わせたハイブリッド型による、アンケート業務の自動化手法を解説します。

    数値集計精度の不安定さをどう解決するか?

    前回の検証の結果、「AIは確率で答えを導くため、厳密な数値計算や、それに基づいたグラフ作成には不向きである」ということが分かりました。

    そこで今回のシステムでは、「計算はプログラム(GAS)に、解釈はAI(NotebookLM)に」という適材適所の役割分担を行うことで、正確性と効率化の両立を目指します。

    数値の「正確性」をGASで担保する

    アンケート報告において、NPS(商品やサービスに対する信頼・愛着を測る指標)の算出や満足度の平均値に「誤差」は許されません。

    前回、AIが行った集計には数パーセントのズレが生じるケースがありましたが、これをGASによる集計処理に置き換えます。

    プログラムはあらかじめ定義されたロジック通りに動くため、100%正確な数値を算出できます。AIに計算を「お願い」するのではなく、コードで確実に「実行」させるのがポイントです。

    さらに、この集計処理の結果は、GASによって連携したスプレッドシートの集計専用行(テーブル)へと自動的に書き込まれます。

    これにより、「回答の収集」から「指標の算出」、そして「時系列データとしての蓄積」までが、一切の手作業を挟まない一連の自動化パイプラインとして完結します。

    一次情報のみから資料作成を行う

    スプレッドシート上でも簡易な分析はできますが、プレゼン用の資料の作成までを行うために、RAGを誰もが簡単に使えるように設計されたAI搭載のリサーチアシスタント・ノートツールNotebookLMを活用します。

    前回の記事では、汎用的な生成AIを活用しましたが、アンケート結果以外の結果を生成する可能性があります。実際に、存在しない数値を生成していました。

    そこで、読み込ませたアンケート結果という「一次情報」のみをソースとして洞察を抽出してくれるNotebookLMに、スプレッドシートの結果を読み込ませます。

    これにより、アンケート結果にある数値や文章を正確に汲み取った上で、「報告書のストーリー」と「各スライドのメッセージ」を自動的に生成してくれます。

    自動化を成功させる「逆算型」アンケート設問術

    GASとNotebookLMを活用することで、正確性と効率化の両立が期待できます。

    しかし、データの形式がバラバラであると、GASやAIが正しく認識することができず、正しく結果が出力されない可能性があります。

    自動化システムにおいて、アンケートフォームは単なる「質問の場」ではなく、システムへの「データ入力インターフェース」と捉えることができます。

    そこで、出口である「報告用スライド」から逆算し、GASやAIが処理しやすい形でデータを受け取るための設計ポイントを整理しました。

    ①定量データ:GASに計算を任せるための「数値固定」

    満足度やNPSを測る設問では、自由入力を一切排除し、「1〜5の5段階評価」などのラジオボタンで回答を固定します。

    「満足」「普通」といった文言ではなく、あらかじめ「5:大変満足」といった数値付きの選択肢にしておくことで、GASがそのまま平均値や「Top 2 Box(上位2項目の合計割合)」を正確に算出できるようになります。

    これにより、スライド上のグラフの数値に「AIによる誤差」が入り込む余地をゼロにします。

    ②定性データ:AIを「名軍師」にするための細分化

    自由記述欄を「ご意見をご自由にお書きください」という一項目にまとめると、AIは「良い点」と「悪い点」を混同して要約してしまうことがあります。

    これを防ぐために、「良かった点(ポジティブ)」と「改善してほしい点(ネガティブ)」で設問をあえて分けます。

    このように入り口を分けることで、AIは「強みの特定」と「課題の抽出」をより鋭く行えるようになり、スライドにそのまま掲載できるレベルの具体的なインサイトを生成してくれるようになります。

    ③属性データ:クロス集計を「自動化」する選択式の徹底

    「業種」や「役職」「参加目的」といった属性データは、必ずドロップダウン形式の選択式にします。

    「製造業」「メーカー」など、回答者によって表記が揺れる自由記述にしてしまうと、GASでの集計前に「名寄せ」という膨大な手作業が発生してしまいます。

    選択肢を固定することで、属性別の満足度比較といったクロス集計もプログラムが一瞬で終わらせられるようになります。

    ④バリデーション:データの「汚れ」を未然に防ぐ

    メールアドレスの形式チェックや、必須項目の設定など、Googleフォームのバリデーション(回答の検証)機能をフル活用します。

    これにより、正しい形式のデータしか入ってこない状態を作り、エラーなくシステムを走らせることができます。

    データの入り口を清潔に保つことが、結果として「手直しゼロ」の自動化を実現します。

    このように「出口」から逆算して設問を設計することで、AIとGASが持つ本来のポテンシャルを100%引き出すことが可能になります。

    アンケート収集から分析・資料化までのワークフロー

    では次に、実際に一連の流れを実行する方法を紹介します。

    データの入り口:GASによる自動収集と蓄積の内容

    まず、Google Apps Script(以下、GAS)でGoogleフォームの生成と、入力されたデータの蓄積を行なっていきます。

    GASにアンケートの設問や選択肢をコードで定義することで、自動でGoogleフォームを生成し、そのURLを提示してくれます。

    なお、このコードもGeminiなどの生成AIに生成してもらうことができるので、前章の設問設計を踏まえた内容のコードを書いてもらいましょう。

    アンケート収集から分析・資料化までのワークフロー
    GASに書き込んだコードにより、GoogleフォームのURLが生成される。

    このURLをwebで開くと、Googleフォームの編集画面が開きます。問題がなければ公開し、リンクを共有することで回答者がフォームに入力することができます。

    アンケート収集から分析・資料化までのワークフロー
    Googleフォームの回答画面

    回答者がフォームに入力をすると、連携されたGoogleスプレッドシートへとリアルタイムで1行ずつ蓄積されていきます。

    アンケート収集から分析・資料化までのワークフロー
    入力された回答が、連携したスプレッドシートに蓄積されている

    データの深掘り:NotebookLMによる定性分析

    次に、スプレッドシートに蓄積された整理済みのデータを、ソースとしてNotebookLMに読み込ませ、スライドを作成してもらいます。

    ソースを読み追加した後に、「スライド資料」というボタンを押すことで、自動で資料を作成してくれます。

    アンケート収集から分析・資料化までのワークフロー
    NotebookLMが生成してくれたスライド資料

    資料の仕上げ:Gemini Canvasによるスライド変換と修正

    最終的な微調整を行うには、GeminiのCanvas機能を活用して、Googleスライドに変換することで修正することができます。

    NotebookLMで生成されたスライドのPDFをGeminiのCanvas機能に投げ込み、Googleスライドへの変換を指示することで、修正可能なスライドを生成してくれます。

    アンケート収集から分析・資料化までのワークフロー
    GeminiのCanvas機能により、NotebookLMが作成したPDFを、Googleスライドに変換してくれる。
    アンケート収集から分析・資料化までのワークフロー
    変換されたGoogleスライドをダウンロードすることで、修正することができる。

    アンケート自動化により生まれるメリット

    最後に、こうした技術を活用することで、従来のアンケート業務にもたらすメリットを紹介します。

    業務時間をクリエイティブな施策立案へ

    これまで担当者を苦しめていた「データの集計」「グラフの作成」「スライドへの転記」といった事務的な定型作業がほぼゼロになります。

    膨大な作業から解放されることで、浮いた時間を「なぜこの結果になったのか」の深掘りや、「次回の施策をどう改善するか」という、人間にしかできない戦略的な検討に充てることが可能になります。

    「100%の正確性」と「嘘のない洞察」の両立

    プログラムによる厳密な計算と、AIによる文脈理解を組み合わせることで、報告書の信頼性が飛躍的に向上します。

    GASが定義通りに計算を行うため、人間がやりがちな計算ミスや転記ミスによる手戻りがなくなります。

    スライド資料においても、NotebookLMがアンケート結果という「一次情報」のみを根拠に分析を行うため、ハルシネーション(AIの嘘)を排除した、自社専用の正確なメッセージをスライドに反映できます。

    スピード感のある「分析の内製化」とコスト削減

    デザインスキルや高度なデータ分析スキルがなくても、一定の品質のプレゼン資料をAIが作成し、そこから人が修正するというワークフローを組むことができます。これにより、即座にレポート化できる体制が整います。

  • 顧客の声を生成AIで活用できる資産へ、ボタンひとつで分析するシステムの構築方法を解説

    顧客の声を生成AIで活用できる資産へ、ボタンひとつで分析するシステムの構築方法を解説

    カスタマーセンターには、「製品への期待」「操作への戸惑い」「叱咤激励」など、顧客からの貴重な声が届いています。

    これらの声は、サービスをより良くするための手掛かりとなり得ますが、多くの現場では、日々の応対を記録すること自体がゴールになってしまい、その先の「分析」や「改善」まで手が回っていないのが実情です。

    そこには、「記録の仕方が部署や担当者によってバラバラで、集計しようがない」 「自由記述のテキストデータが膨大すぎて、読み込む時間がない」 「システムを改修してデータを構造化するには、膨大なコストと月日がかかる」といった、カスタマーセンター特有の切実な事情があります。

    結果として、せっかくの声がExcelやCRMの中に「眠ったまま」の状態になっているケースは少なくありません。

    そこで本記事では、分析が進まない障壁を踏まえた上での生成AIの価値に加え、実際に簡易的にできる表計算ソフトを活用した分析や、ボタンひとつで分析を行なってくれるシステムの構築方法を紹介します。

    なぜ「既存の記録」の分析が進まないのか

    顧客の声(以下、VOC)の分析が停滞してしまう要因は、主に3つの「障壁」があると考えられます。

    これらが積み重なることで、カスタマーセンターのデータは「活用できる資産」ではなく、単なる「ログの蓄積」になってしまいます。

    表記ゆれと粒度のバラつき

    最も大きな壁は、入力される情報の「不揃いさ」です。

    同じ「ログインできない」というトラブルでも、ある担当者は「ログイン不可」と書き、別の担当者は「IDエラーにより接続不可」と記録します。

    また、一言だけ「操作の質問」と書く人もいれば、経緯を詳細に書き込む人もいます。

    このようにデータの粒度や表現が統一されていないため、従来のキーワード検索や単純な集計では、全体像を正しく把握することが困難となります。

    「構造化」にかかる膨大なコスト

    データを分析可能な状態にするには、一つ一つの応対記録に対して「これは機能不全」「これはUIへの不満」といったタグ(分類ラベル)を付ける「構造化」の作業が必要です。

    しかし、これを手作業で行うには、膨大な工数がかかります。

    そのため、分析のために専用の分析システムを導入しようとすると、要件定義や予算確保に数ヶ月〜数年かかることも珍しくありません。

    結局、日々の業務に追われ、「いつか時間ができたらやろう」と後回しにされてしまうのです。

    「とりあえず保管」という思考停止

    多くの現場では、CRM(顧客管理システム)やExcelへの入力が「業務報告」としての役割しか果たしていません。

    「何件対応したか」という件数の集計はできても、「どのような問い合わせが多いのか」「なぜその問い合わせが起きているのか」というインサイトまで踏み込んだ分析は、個々の担当者の記憶や直感に頼らざるを得ないのが実情です。

    結果として、特定部署だけが把握している「深刻な不満」が、全社的な改善案として吸い上げられないという機会損失が発生しています。

    これらの障壁は、これまでは「地道な手作業」か「高額な投資」でしか乗り越えられないものでした。

    しかし、次章で解説するように、生成AIはこの「バラバラで不揃いなデータ」をそのままの形で受け入れ、価値ある情報へと変換してくれます。

    生成AIがもたらす「分析」のパラダイムシフト

    次に、生成AIがどのようにして前章で挙げた「バラバラなデータ」の壁を打ち破るのかを解説します。

    これまでのデータ分析といえば、「文章の中に『動かない』『エラー』という言葉があれば、一律で『不具合』にカウントする」というように、あらかじめ決められたルールに基づいて機械的に処理する「統計的な手法」が主流でした。

    しかし、生成AIの登場により、カスタマーセンターに眠る「生の文章(非構造化データ)」の扱い方は変わりました。

    生成AIが分析プロセスにもたらす変革には、主に3つのポイントがあります。

    「文脈」を理解し、表記ゆれを飲み込む

    生成AIの最大の特徴は、言葉の「意味」や「文脈」を理解できることです。

    従来のシステムでは「ログインできない」と「サインイン不可」は別物として扱われ、人間が事前に「これらは同じ意味である」と定義する必要がありました。

    しかし生成AIは、文言が違っても「接続に関するトラブルである」と柔軟に解釈します。

    これにより、担当者ごとに書き方がバラバラなExcelデータであっても、事前の整理なしにそのまま分析にかけることが可能になりました。

    膨大なテキストを「一瞬で要約・分類」する

    数千件、数万件におよぶ応対記録を人間が読み込むには、膨大な時間と精神的なエネルギーを要します。

    生成AIを使えば、それらの記録を瞬時にスキャンし、「何についての不満が多いのか」を重要度順にリストアップしたり、ポジティブ・ネガティブといった「感情分析」を自動で行ったりすることができます。

    「なんとなく操作性が悪いという声が多い気がする」という現場の肌感覚を、具体的な根拠へと変換することができます。

    「仮説」を一緒に立てるパートナーになる

    生成AIは単に分類するだけではありません。

    「最近、Aという製品で『使いにくい』という声が増えているようだけど、具体的にどの操作ステップでつまずいているか分析して」 といった問いかけに対し、AIは膨大な記録の中から共通のボトルネックを探し出し、改善案のヒントを提示してくれます。

    分析の専門知識がなくても、対話を通じて「顧客の不満の核心」にあたりをつけることができます。

    表計算ソフトで簡易的に分析する

    では実際に、生成AIを使って具体的にどのように分析を進めていくのか、そのステップを詳しく見ていきましょう。

    まずは、表計算ソフトであるGoogleスプレッドシートやExcelに搭載されている生成AIを活用することで、VOCを簡易的に分析する方法を解説します。なお、この方法は、Googleのサブスクリプションに契約することで利用することができます。

    前述したように、生成AIは文章の意味を読み解いて分類することはできますが、「どの列が日付で、どの列が顧客の声か」という構造がバラバラだと、情報の紐付けを間違えてしまいます。

    特に、データ量が膨大になってくると、生成AIが全ての情報を等しく処理しようとして膨大な計算リソースを消費し、結果として分析の焦点がぼやけたり、処理が途中で止まるエラーを引き起こしたりする可能性があります。

    そこで、表計算ソフトに担当者が記入する際、生成AIが分析しやすいデータ構造に整える必要があります。

    具体的には、1行目(ヘッダー)に、以下のように項目を分け、これに沿って入力してもらうようにします。

    項目名 生成AIにとっての役割
    ID 各問い合わせを識別するための背番号。重複を防ぎます。
    Date Time 発生時期の特定。アップデート前後などの「傾向の変化」を分析するのに不可欠です。
    Customer ID 特定の顧客が何度も不満を抱いていないか、ロイヤリティへの影響を測ります。
    Category 「操作方法」「不具合」など。生成AIが定量的な集計(グラフ化など)をする際の基準になります。
    Agent Name 担当者ごとの負荷や、対応品質の偏りを分析する指標になります。
    Priority 緊急度の判定。生成AIが「最優先で改善すべき課題」を絞り込む際に参照します。
    Description 最も重要です。 顧客の生の声(VOC)をそのまま入力します。生成AIはこの文章から真の課題を読み取ります。

    ある程度データが溜まったら、サイドパネルにあるGeminiアイコンをクリックすることで、チャット欄が表示されます。このチャット欄に、直接対話形式で分析を依頼することで、簡易なレポートを生成してくれます。

    表計算ソフトで簡易的に分析する
    Googleスプレッドシートのサイドパネルのチャット欄

    例えば、「このシートにある応対メモを分析して、顧客の不満を多い順に3つのカテゴリーで要約して。それぞれの発生件数も教えて。」と入力すると、表や自然言語で分析結果を示してくれます。

    表計算ソフトで簡易的に分析する
    Geminiの回答

    この結果を受け、さらに「1位の不満において、特にどのキーワードに関連する声が一番多いか、さらに細かく内訳を教えて」と指示すると、キーワードごとの内訳を分析してくれます。

    表計算ソフトで簡易的に分析する
    UI/操作性という不満カテゴリーの詳細なキーワードの内訳を示している

    これにより、現状の課題や何を優先的に解決すべきかといった判断の足がかりにすることができます。

    ボタンひとつで分析を行なってくれるシステムの構築

    次に、ノーコード・ローコードで生成AIアプリケーション開発ができる「Dify」を活用し、ボタンを押すだけで同様の分析を行なってくれるシステムを構築してみます。

    Difyでのワークフロー構築

    まず、Difyのワークフローを新規作成し、4つのノードを連結させて構築します。

    Difyを活用したシステムの構築
    ワークフローの全体像

    始まりは、「ユーザー入力」ノードから始まり、「BATCH GET」ノードによりGoogleスプレッドシートと連携します。「BATCH GET」ノードは、指定したスプレッドシートの範囲を、生成AIが処理可能なテキスト形式で一括取得します。

    取得したデータは「LLM」ノードへと渡され、専門のアナリストとして分析を行ってもらいます。

    生成AIがデータを正確に読み解くためには、LLMノードへの「指示書(プロンプト)」設定が重要になります。

    具体的には、「BATCH GET」ノードで取得した変数を生成AIが参照できるよう「コンテキスト設定」で紐付けた上で、システムプロンプトに具体的な役割と指示を書き込みます。

    [プロンプト内容]

    あなたはプロのデータアナリストです。
    変数 {{text}}に格納された大量の応対記録を読み取り、以下の4つのステップで分析を完結させてください。

    1. 【全体傾向の要約】
    全件の中から「不満」に関連する声を抽出し、「UI・操作性」「不具合」「要望」の3カテゴリで件数(目安)を集計してください。

    2. 【アップデート影響の特定】
    11月のアップデートに関連する「画面の使いにくさ」「スクロール量」「ボタン配置」への不満が、全不満の中でどの程度の割合を占めているか特定してください。

    3. 【具体的な不満内容の抽出】
    特に深刻、または頻出している顧客の生の声を3つ、原文のニュアンスを維持してピックアップしてください。

    4. 【改善アクション案】
    分析結果に基づき、開発チームが来週から着手すべき具体的な製品改善案を2点提案してください。

    # 制約事項
    – 出力はスプレッドシートへの貼り付けを想定し、箇条書きで簡潔にまとめてください。
    – 専門用語は避け、現場の担当者が理解しやすい言葉を使ってください。

    最後に、生成AIが生成したレポートを「終了(出力)」ノードを通じて、再びGoogleスプレッドシートへと戻される仕組みを構築しています。

    Googleスプレッドシートとの連携

    なお、上述したDifyのワークフローは、Googleスプレッドシートとの連携によって完成します。

    まず、Googleスプレッドシートの内容をDifyに渡すため、Google Apps Script(以下、GAS)を用いた自動起動の設定を行います。

    具体的には、Googleスプレッドシートの拡張機能からスクリプトエディタを開き、Difyと通信するためのプログラムを記述します。

    なお、このプログラム内には、Difyの管理画面で発行した専用の「APIキー」を組み込んでいます。このAPIキーにより、パスワードのような役割を果たし、外部から安全に自作のAIワークフローを呼び出す「API連携」が確立されます。

    次に、スプレッドシート上に図形描画機能を使って「AI分析実行」というボタンを作成し、先ほど作成したスクリプトを割り当てます。これにより、複雑なコード画面を開くことなく、ボタンをクリックすることでDifyへ分析指示が飛ぶようになります。

    Difyを活用したシステムの構築
    Googleスプレッドシートの図形描画機能を使って作成した実行ボタン

    通信が始まると、GASはGoogleスプレッドシートの内容をDifyに送り、Dify側で生成AIが分析を実行します。

    分析が完了すると、生成AIの回答データがGASに送り返されますが、スクリプト内で「〇〇セルに書き込む」という命令を構成しておくことで、分析結果が自動的に指定したセルへ流し込まれます。

    Difyを活用したシステムの構築
    指定したセルに書き込まれた分析結果

    この一連の流れにより、担当者がボタンを押すことで、顧客の声を整理した上での改善案を含めたレポートを受け取ることができます。

    生成AIを活用する上での注意点

    このように、生成AIを活用することで、簡易的な分析をすぐに行うことができます。

    ただし、生成AIは万能ではないため、以下の点で注意が必要となります。

    個人情報・機密情報の取り扱い

    最も注意すべきは、データのセキュリティです。生成AIに読み込ませるVOCの中に、顧客の氏名、電話番号、住所などの個人情報や機密情報が含まれていないかを確認してください。

    これはシステム側の設定以前に、「入力する担当者が、最初の段階で個人情報を書き込まない」という意識を持つことが対策となります。

    例えば、入力時に「田中様」を「顧客A」に、「090-xxxx」を「電話番号」と置き換えるなど、担当者がその場でマスキングを行うルールを徹底しましょう。

    分析に必要なのは「どのような不満や要望があるか」という文脈です。内容に関係のない契約番号や詳細な住所などは、入力の段階で除外するよう運用を整えます。

    また、利用する生成AIの規約を確認し、入力データが学習に利用されない設定を選択することも重要です。

    ハルシネーションへの理解

    生成AIは非常に説得力のある文章を作成しますが、時には事実とは異なる内容を生成することがあります。

    そのため、生成AIが算出した「件数」や「特定の事例」が正しいかどうか、最終的には必ず人が確認する工程を設けたほうがいいでしょう。

    また、生成AIは「傾向の把握」には非常に強力ですが、厳密な数値の正確性を求める際は注意が必要です。

    リソース制限とコストの管理

    大量のデータを一度に処理しようとすると、生成AI側の利用制限に達し、エラーが発生することがあります。

    そこで、大規模なデータを扱う場合は、100件〜500件単位で分割して実行するワークフローを組むなど、エラーを回避するための工夫が必要です。

    また、高性能なモデルを頻繁に利用するとコストが高くなる場合があるため、用途に合わせて軽量なモデルと使い分けるなどの対策を取りましょう。

    こうした点に注意し、生成AIをうまくすることで、顧客応対が単なる記録で終わらず、製品開発やサービス品質の向上へと繋げることができるでしょう。

  • 2026年、必須となる「3つの要素」を知り、AIでビジネスをブースト

    2026年、必須となる「3つの要素」を知り、AIでビジネスをブースト

    謹んで新年のご挨拶を申し上げます。 2026年の幕開けです。

    昨年は、生成AIの技術的な進化に驚かされた1年でしたが、今年はそれが「当たり前」のインフラとして定着し、企業間の格差が「実装スピード」で決まる1年になるでしょう。

    今や、先進的な企業は、ChatGPTなどチャットサービスの物珍しさから脱却して、業務に特化した「AIエージェント」のプロトタイプを開発し、自社の業務フローを、開発したAIエージェントありきに改変し、生産性を劇的に向上したり、匠の知見を継承したり、新しい顧客コミュニケーションを始めたりしています。

    こう言った、AIを業務に取り込むアイデアは数えきれないほどで、既にIoTNEWSでも特集記事を掲載開始しています。

    そんな中、IoTNEWSは、この2026年を、単なる「業務効率化(守りのDX)」の年ではなく、AIの力を借りて企業が本来持っているポテンシャルを解放し、「AIでビジネスをブーストさせる」年にしたいと考えています。

    そのために、今年、経営者やリーダーが絶対に押さえておくべき「3つの要素」があります。

    この要素は、技術トレンドやバズワードではありません。

    あなたのビジネスを次のステージへ押し上げるための、本質的な構成要素です。

    それでは、具体的なイメージと共に見ていきましょう。

    1. IoT × AI:「産業のOS」による推論と意思決定

    1つ目は、IoTNEWSらしい、ビジネスの「足腰」となるデジタル基盤の話です。

    IoTは今や単なるデータ収集ツールではなく、AIという脳と結合し、「産業のOS」へと進化しました。(この辺の解説は年末の記事を参照してください)

    「産業のOS」というと大げさに聞こえるかもしれませんが、やることはシンプルです。

    「現場で起きている『ズレ』をIoTが見つけ、AIが修正案を出し、人がGOサインを出す」これだけです。

    これまでベテランの勘に頼っていた調整を、データに基づいて行う。 物流の現場を例に、その変化を見てみましょう。

    CASE: 物流倉庫の「トラック待機問題」が進化する

    これまでは、配送トラックが渋滞で30分遅れて到着することがあっても、倉庫側はそれを知ることができず、到着してから「バース(荷降ろし場)が空いてない!」と大慌てしていました。

    ドライバーは待たされ、倉庫内の作業員も手待ち時間が発生し、残業規制があるにも関わらず、超過勤務が発生してしまう。

    こんなことはよく起きています。

    しかし、2026年以降の世界では、トラックのGPS位置情報(IoT)から、AIが「到着が40分遅れそう」と予測します。

    それと同時に、倉庫内のカメラ(IoT)が「現在、第2バースの作業が予定より早く終わりそうだ」と検知する。

    AIエージェントは、これらを統合し、「遅れているA便を後回しにし、先に到着しているB便を第2バースへ誘導するスケジュール変更」を倉庫の管理者に提案します。

    倉庫の管理者は、スマホに届いた提案を見て「承認」ボタンを押すだけ。トラックが着いた瞬間、待つことなくスムーズに作業が始まります。

    このケースを実現するのに必要な技術は、GPSとカメラだけです。これまでも可視化のためにこの手の取り組みをやった企業はたくさんあるでしょう。

    しかし、これらが取得するデータが語る「文脈」を理解し、適切な「対処を提案」する。こういうことは、その業務に特化したAIエージェントだからできる技なのです。

    しかも、このAIエージェントは、Difyなどの開発ツールを使うことで、驚くほど簡単に、かつ安価に作ることができるという点も重要です。

    2. AIありきでの「業務フローを再定義」

    2つ目は、仕事の「進め方」そのものの変革です。

    これまで、多くの企業が取り組んできたDXは、その本来の意味から外れて、既存の業務フローをデジタルに置き換える「改善」に過ぎませんでした。

    実際、「人がやる作業」を前提に、少し楽にするデジタルツールを導入する。それが限界でした。

    しかし、AIエージェントが実用段階に入った今、私たちは「業務フローをゼロベースで再定義」する必要が出てきました。

    CASE: 営業部門の「提案書作成」フローが変わる

    これまでは、顧客から問い合わせが来ると、営業担当が過去の類似資料を探し出し、スペック表をコピペし、半日かけて提案書を作成。上司の承認を得てメールする頃には、競合他社に先を越されている・・・。

    こんな状況がありました。

    提案書作成業務をAIありきに変更

    しかし、2026年の世界では、問い合わせフォームに問い合わせが入った瞬間、AIエージェントが動きます。

    問い合わせ企業のウェブサイトや最新ニュース、過去の取引履歴、自社の最新在庫状況などをすべて読み込み、「松・竹・梅」の3パターンの提案書ドラフトを作成します。

    営業担当がやることは、AIが作ったドラフトから最適なプランを選び、多少の手直しをした上で、問い合わせてくださった方へ温かいメッセージを一言添えるだけ。

    「人が作業し、AIが助ける」のではなく、「AIが完結させ、人が魂を吹き込む」。

    こう言ったことは、既存のやり方にAIを足す、ということではありません。

    「AIエージェントがあることを前提に、業務そのもののフローを設計し直す」ことで、業務スピードは数倍、数十倍に跳ね上がります。

    このAIエージェントも、皆さんの会社において提案資料を作るための基礎情報をデータ化することができれば、Difyなどのツールを使うことで、簡単に安価に実現することができます。

    3. 省力化が生む「コア業務への回帰」と「新規事業」

    そして3つ目。ここが最も重要です。

    IoTとAIで自動化し、業務フローを再定義して、生まれた余力をどこに向けるか?

    それは、「コア・コンピタンス(自社の強み)」への回帰、そして「新しいビジネスへのチャレンジ」です。

    これまでは、人手不足の現場において「新しい付加価値を作りたい」と思っても、日々の問い合わせ対応や事務処理に忙殺され、アイデアは引き出しの奥で眠ったままでした。

    しかし、2026年の世界ではどうでしょう?

    世界的な家具量販店の「IKEA(イケア)」が、素晴らしい実例を示しています。

    CASE3: AIに任せるべきは任せ、人は「本来の強み」へ回帰

    IKEAは、問い合わせ対応業務にAIボットを導入し、顧客からの一般的な問い合わせの半分近くを自動化しました。

    これによって、浮いた8,500人ものスタッフを、「インテリアデザイン・アドバイザー」へと転身させたのです。

    これまで「配送の確認」や「在庫の検索」といった問い合わせ対応に追われていた社員たちが、今では顧客のライフスタイルを聞き出し、理想の部屋作りを提案するクリエイティブな仕事で売上に貢献しています。

    これこそが、「AIでビジネスをブーストする」ということです。

    「人手不足で新しいことができない」という言い訳は、もう過去のものです。

    AIによって浮いたリソースを、人間にしかできない「顧客への提案」や「新規事業」に集中させる。

    AIを使うなんて「ズルだ」と言っている間に、使いこなしている企業との差は開くばかりです。

    さあ、あなたの会社なら、浮いた時間で「誰」を幸せにしますか?

    2026年、あなたのビジネスをブーストさせるために

    ここまで見てきたように、2026年は、

    1)産業のOSで、予知し、先回りする現場を作る
    2)AIありきで、圧倒的スピードの業務フローを作る
    3)浮いた力で、新しい挑戦に打って出る

    この3つの要素が揃った時、あなたの会社は生まれ変わります。

    しかし、これを実現するには、「技術」だけでなく、「戦略をどう描くか」と「誰がやるか」についても、アップデートが不可欠です。

    そこで、私たちIoTNEWSは、メディアとして情報を届けるだけでなく、皆様のビジネスをブーストさせるための「AI実装のパートナー」へと進化することにしました。

    もし、2026年を「飛躍の年」にしたいとお考えなら、ぜひ私たちの新しいサービス「AIBoost」をご覧ください。

    「戦略策定」から、「人材育成」、そして実際の「エージェント開発」まで。

    私たちが自ら実践し、成果を出したノウハウで、御社の変革を全力で支援します。

    さあ、AIと共に、ビジネスを加速させましょう。

    [su_button url=”https://stg-iotnews-stage.kinsta.cloud/aiboost/” target=”blank” style=”flat” background=”#13c2ff” size=”10″ wide=”yes” center=”yes” radius=”5″ icon=”icon: angle-right” class=”nanoopt”]AIBoostでビジネスをブーストする[/su_button]

  • SNS運用をAIで内製化するには?カスタムAIとノーコードツールで効率化する方法を解説

    SNS運用をAIで内製化するには?カスタムAIとノーコードツールで効率化する方法を解説

    企業におけるSNSの活用は、顧客との接点を作り、企業の利益につなげる可能性を秘めた重要な施策です。

    しかし、SNS運用を任された担当者は、コンテンツを作るためには、毎日のように流れてくる膨大なニュースを巡回し、その中から自社のターゲットに刺さるネタを選別する必要があります。

    さらに、それを各プラットフォームの特性に合わせて具体的な投稿案にまで落とし込み、ユーザーとのコミュニケーション、コメントへの返信、効果測定など業務が多岐にわたり、担当者のリソースは常に逼迫し、工数過多の状態に陥りがちです。

    こうした状況を打破しようと外部の専門業者に運用代行を依頼すればコストがかかるため、「自社で高品質な運用を内製化したい」という企業が多いのではないでしょうか。

    そこで本記事では、SNS運用を任された担当者の方がクリエイティブな時間を捻出するためにも、AIを活用して効率化するためのヒントを紹介します。

    SNS運用の4つの基本ステップ

    まずは、どこを自動化し、どこに人間が注力すべきかを明確にするためにも、SNS運用の一連の流れを「作業工程」として分解します。

    ここでは、SNS運用を4つのステップに分けて考えてみます。

    Step 1:情報収集・リサーチ

    SNSの成否はリサーチの質で大きく左右されますが、毎日複数のニュースサイトや競合の投稿を巡回するのは、担当者にとって時間がかかる能動的な作業です。

    情報収集の本質は、単に最新情報を知ることではなく、「自社のターゲットが今、何に価値を感じているか」という兆しを掴むことにあります。

    そこで、情報の「網羅性」と「速報性」を担保しつつ、AIに一次情報の選別を任せることで、担当者は「集まった質の高い情報」をどう解釈するか、という高度な知的作業に集中できるようになります。

    Step 2:企画・ネタ出し

    収集した一次情報を、自社のアカウントならではの「視点」に変換するプロセスです。

    AI時代のSNS運用において、情報の転送だけでは価値が生まれにくく、読者はその情報が「自分たちにどう関係し、どう役立つのか」という独自の解釈を求めています。

    このステップの本質は、既存の枠組みに囚われない「切り口の多様性」を確保することにあります。

    そこで、AIに特定の役割や専門性を持たせ、ベテランマーケターのような視点で思考のタタキ台を量産させます。

    これにより、担当者はゼロから切り口を考えるのではなく、AIとの対話を通じて企画をより鋭く磨き上げるという、クリエイティブな意思決定が可能になります。

    Step 3:コンテンツ制作

    確定した企画案を、各プラットフォームに最適化されたコンテンツとして制作する工程です。

    どんなに優れた企画も、最初の3秒で惹きつけるキャッチコピーや、スマホ画面でストレスなく読めるデザインがなければ、ユーザーを惹きつけることはできません。

    このフェーズの課題は、制作に時間をかけすぎて旬を逃してしまうことです。

    そこで、AIに構成案や動画の台本、複数のキャッチコピー案を生成させ、それをCanvaなどのデザインツールと組み合わせる手法が有効です。

    「0から1を作る」苦労をAIに任せ、人間は「1を100にする」ブラッシュアップとクオリティ管理に徹するという役割分担が効率化の鍵です。

    Step 4:投稿・分析

    投稿はゴールではなく、次の企画のための「実験結果」です。インプレッション数、保存数、エンゲージメント率といった数値を、単なる事務的な報告書として終わらせてはいけません。

    真の分析とは、「なぜこの記事は保存されたのか?」「なぜこのキャッチコピーはクリックされなかったのか?」という仮説の検証です。

    伸びた投稿のパターンを言語化し、それを再びStep2の「企画AI」にフィードバックする。このサイクルを回し続けることで、アカウント全体の知見が蓄積され、運用は回を追うごとに精度を増していきます。

    自動化された収集と企画の仕組みがあるからこそ、担当者はこの「戦略的な振り返り」に最も多くの時間を使えるようになります。

    自動化するべき工程を決定することの重要性

    上述した一連のステップは、Difyなどのノーコード・ローコードツールを駆使することで、完全に自動化することも可能です。

    しかし、AIが収集した情報が取り上げるトピックとして適切か、企画やネタが読者に刺さるものかどうかを投稿前に確認しなければ、誰にも届かない投稿がアップされ続けるという状況に陥ってしまいます。

    また、コンテンツ制作は、短いテキストであれば一連の流れで自動化することができるかもしれませんが、構造的に整えられた長文や動画と文章の組み合わせなど、複雑な処理を一度で実行するのはかえって修正の手間がかかってしまう可能性もあります。

    さらに、AIはハルシネーションやエラーのリスクを常に抱えているため、すべての工程を確認なしで自動化するのはリスクが大きいのが実情です。

    そのため、SNS運用のワークフローの中において、どこで人が判断するべきかを決める必要があると考えます。

    今回は、情報収集と企画やネタのアイディア出しを自動化し、最終的なトピックの選定やコンテンツの制作は人が行うこととします。これにより、効率化と品質の担保の両立を目指します。

    なお、ステップ3のコンテンツ制作と、Step4の投稿・分析は、どのSNSプラットフォームを活用するかによって変わるほか、ステップ3,4それぞれにさらなる膨大な工程が存在するため、今回の記事では割愛しています。

    情報の収集と選別を自動化する

    ではまず、Step1の情報収集・リサーチを効率化するために、Webサイトの更新情報を自動的に配信してくれるRSSとの連携が標準で搭載されているノーコード自動化プラットフォーム「Make(旧Integromat)」を活用し、SNS運用の効率化を目指します。

    今回構築するのは、特定のニュースサイトから最新情報を取得し、AIが「自社のアカウントにとって投稿価値があるか」を判断した上で、通知までを一気通貫で行う仕組みです。

    まずは、きっかけとなる「トリガー」として、RSSフィードやWebスクレイピングを用い、特定サイトの更新を自動検知するように設定します。

    実行タイミングは「毎日10時」といった時間指定や、特定の曜日を指定することで、ルーチンワークとして実行されるようになります。

    情報の「収集・選別」を自動化する
    トリガーの時間設定画面

    次に、AIノードにて、サイトからのニュースデータを分析し、ニュースのピックアップをしてもらいます。

    そして、そのニュースに含まれるトピックと業界への影響、読者にとっての重要度、SNS投稿の切り口を出力させます。

    情報の「収集・選別」を自動化する
    AIノードの設定画面

    ピックアップしたニュースと指定した出力結果は、Gmailにて通知してもらう仕様としました。

    これにより担当者は、届いたメールを確認することでその日の投稿ネタを考えることができます。

    情報の「収集・選別」を自動化する
    Gmailに送られてきた結果

    このワークフローを導入することで、担当者は「ネタを探しに行く」という能動的な作業を効率化することが可能となります。

    企画・ネタ出しの自動生成

    情報を収集したら、Step2の企画・ネタ出しを行います。

    ここでは、Geminiにおける特定のタスクに特化させるためのカスタムAIアシスタント機能「Gem」を活用し、特定の役割と制約を学習させた「ネタ出しAIアシスタント」を構築することで、SNS運用の企画業務を効率化します。

    今回は、IoTNEWSがSNS運用を行うと仮定し、「AIの役割と制約」「実行して欲しいタスク」「出力形式」を定義しました。

    AIによる「企画・ネタ出し」の自動生成
    Gemの設定画面

    以下が、SNS「企画・ネタ出し」Gemで設定したカスタム指示です。

    【システム設定:AIの役割と制約】

    あなたは「IoTNEWS」のSNS運用チームに所属する、親しみやすいトーンのベテラン企画担当マーケターです。

    [専門知識と視点]

    IoT、AI、DX、SaaSといったB2B技術トレンドに関する深い知識を持ち、市場の動向をデータドリブンな視点で分析します。

    企画は常に「IT技術者およびビジネス層」の課題解決に繋がる実用的な内容であることを最優先とします。

    [トーンと行動規範]

    トーン: 常に親しみやすく、かつプロフェッショナルなトーンを保ちます。

    言葉遣い: 専門用語を使用する際は、必ず一般のビジネス層にも分かりやすいように簡潔に解説を加えます。

    制約: 感情的な表現は避け、提案は必ず具体的な分析データ(もし入力された場合)または市場の洞察に基づいていることを示します。

    【メインプロンプト:SNSネタ出しタスク】

    このタスクは、以下の【分析対象】に基づき、弊社のSNSアカウントで利用するための、効果的で実践的な投稿企画案を提案することです。

    1. 分析対象(データまたはテーマ)

    ↓↓↓
    [パターンA:競合の成功投稿]
    競合の成功投稿の「投稿テキスト」と「いいね数」

    [パターンB:テーマ指定]
    企画案を作成したい特定のIoT/AIトレンドのテーマやニュース
    ↑↑↑ ここまでが分析対象です。 ↑↑↑

    2. タスク(具体的依頼内容)

    成功要因分析/テーマ洞察 (3点):

    【パターンAの場合】インプットデータから、投稿が成功した核となる要因を3点に絞って分析してください。この3点のうち、最低2点はクリエイティブ要素(キャッチコピー、画像・動画の構成、デザイン、視覚的訴求力)に関する分析とすること。

    【パターンBの場合】指定されたテーマについて、読者の関心を引く核となる切り口を3点に絞って提示してください。

    応用企画案提案 (2案):

    分析/洞察に基づき、弊社の親しみやすいトーンで応用可能なSNS投稿企画案を2案、具体的に提案してください。

    【企画案A】: 動画プラットフォーム(例:リール、TikTok)での利用を前提とした企画。

    【企画案B】: テキスト/アンケート機能(例:X, LinkedIn)での利用を前提とした企画。

    キャッチコピー提案 (各3パターン):

    提案した企画案AおよびBに対し、投稿のサムネイル用または冒頭文に使用するキャッチコピーを、それぞれ3パターンずつ提案してください。

    推奨ハッシュタグ:

    各企画案のテーマに最も適したトレンド性、専門性、汎用性のバランスが取れたハッシュタグを、合計5つ提案してください。

    3. 出力形式(Format)の厳密指定

    生成物は必ず、以下の形式ルールに厳密に従って出力してください。

    言語: 全て日本語で出力。

    形式: Markdown形式(必須)。見出し(##、###)と箇条書き(*)を使い、視認性を高めてください。

    セクション: 出力を下記の3つのセクションに厳密に分けてください。

    ## 1. 分析と洞察

    ## 2. 応用可能な企画案(2案)

    ## 3. 推奨ハッシュタグ

    上記に基づき、分析と企画提案を開始してください。

    今回は、Gemへのメインプロンプトに「分析対象」の入力を二つに分けることで、目的別のネタ出しを行ってもらいました。

    一つ目は、「認知拡大」のための競合分析です。

    参考となるコンテンツのテキストやいいね数をインプットすることで、成功の核となる要因を3点分析し、特にキャッチコピーやデザインなどの「クリエイティブ要素」を深く掘り下げてくれます。

    今回は、OpenAIが発表した新しいモデルを使ってみたという、Xでいいねが多かった投稿のテキストを入力すると、テキストの要約と、なぜ読者の関心を引いたのかという分析、応用可能な企画案をいくつか提示してくれました。

    AIによる「企画・ネタ出し」の自動生成
    分析に基づいた応用可能なSNS投稿企画案を提案してくれた

    提示された企画案の中から、気に入った企画を選択すると、さらに動画構成案やキャッチコピー提案、推奨ハッシュタグなどを提示してくれます。

    ここからさらに深ぼって壁打ちを行っていくことで、アイディアの着想を得ることができます。

    二つ目が、「潜在価値の掘り起こし」のためのテーマ指定です。

    特定のトレンドテーマやニュースを直接指定することで、「分析と洞察」「応用可能な企画案(2案)」「推奨ハッシュタグ」といった3セクションに分けて出力してもらいます。

    AIによる「企画・ネタ出し」の自動生成
    AIエージェントについて、読者の関心を引く切り口を3点提示してくれている。

    SNSのプラットフォームが決まっている際は、動画なのかテキストなのか、その尺や文字数などを細かく指定することで、より完成に近いアウトプットが期待できます。

    AIが提案してくれた内容をそのまま活用することは難しいと感じますが、注目を集めているコンテンツや発信したいテーマをもとにした新たな視点が得られるため、ゼロから一人でネタ出しをするよりも効率化することができます。

    まとめ

    SNS運用の自動化において最も大切なことは、AIなどを活用して効率化することで生まれた時間を、人間にしかできない創作や価値判断に充てることです。

    自動化の方法は今回紹介した手法以外にも様々ありますが、目的に応じて効率化できる部分を特定し、自社に合った自動化を進めることが重要です。

    企画やネタ出しに関しても、AIが提案してくれる内容はあくまで「タタキ台」ですが、このタタキ台があるおかげでゼロから悩む苦しみから解放され、情報の鮮度が落ちる前に自社らしい言葉を添えて発信できるようになるでしょう。

  • 飲食店運営にAIをどう活用する?「在庫・ロス管理」「売上機会の損失」に対するAIシステムを提案

    飲食店運営にAIをどう活用する?「在庫・ロス管理」「売上機会の損失」に対するAIシステムを提案

    多くの飲食店の現場の日々の運営では、重要な判断の多くが長年の「勘」や「経験」に頼らざるを得ない現状があります。

    本記事では、この課題を「在庫・ロス管理」「売上機会の損失」「情報のリアルタイム性の欠如」の3つの領域に集約し、それぞれの課題を解決するために必要なデータと、そのデータを活用したシステムについて紹介します。

    また、実際にノーコード・ローコードAI構築ツールDifyを用いてシステムを構築する方法と、その過程で直面したLLM特有の課題について解説します。

    飲食店における3つの課題

    飲食店の現場では、顧客の注文タイミングや注文量は流動的で、それに伴い在庫も常に変化しています。

    そのため、日々の運営では非効率性と見えないコストに悩まされています。

    これらは主に「在庫・ロス管理」「売上機会の損失」「労働力の偏り」の3つの領域に集約されます。

    在庫管理の非効率性と食材ロス

    在庫管理は、単なる食材のストック確認ではなく、キャッシュフロー、顧客満足度、そして利益率を直接左右する要素です。

    しかし、多くの飲食店では、この重要な在庫管理が「勘」や「経験」に頼っている現状があり、その日の仕込み量が正確に予測できないため、安全策として多めに発注しがちです。

    その結果、特に鮮度が命の食材が期限切れとなり、廃棄コスト(食材ロス)が発生します。

    また、ロスが確定するのは閉店後の集計時であり、その日のうちに対策を講じることは不可能です。

    売上機会の損失

    顧客への追加注文やおすすめの提案は、売上を左右する重要な要素ですが、そのタイミングはスタッフの感覚に依存しています。

    一般的には、「飲み物が空になったら声をかける」「食事が終わるのを待つ」といったルールに従うことが多く、顧客が本当に欲しいと思う最適な瞬間を逃しがちです。このタイミングの遅れや見逃しは、客単価を伸ばす機会を失うことにつながります。

    また、スタッフがおすすめ提案を行う際も、個人的に好きなメニューや、作り慣れているメニューを提案する傾向があり、ロス削減に貢献できるメニューや利益率の高いメニューが適切に提案されないことがあります。

    情報の「リアルタイム性」の欠如

    従来のPOSシステムや手書きの帳簿では、情報の鮮度が遅く、意思決定に役立ちません。

    多くのデータ分析は、一日の営業が終了し、レジを締めた後に行われます。

    このデータは「今日の結果」を示すものであり、「今、どう行動すべきか」というリアルタイムのアクションに活かすことはできません。

    そのため、売れ行きの良いメニューの追加の仕込みや、緊急の追加発注を行うこともできず、本来提供できたはずの売上を逃すことになります。

    効率化するためにどのようなデータが必要か

    こうした課題を解決するための一つの手段として、AIの活用があります。

    AIを活用し、従来の「勘」や「経験」を超えた正確な予測と最適な提案を行うためには、質の高いデータが必要です。

    今回は、「次の注文予測」「在庫推論」「ロス削減」を実現するために必要なデータを紹介します。

    1:注文行動と動向を把握するデータ

    1つ目は、顧客が「いつ」「何を」「どれだけ」注文したかを記録したデータです。

    このデータにより、AIがパターン認識と予測を行うための基盤を作ることができます。

    必要なデータ 目的と活用方法
    注文履歴データ 過去数週間、数ヶ月にわたるすべての注文日時、メニュー名、数量を記録。これにより、時間帯ごとの需要の変動季節性を学習します。
    テーブル単位の注文データ あるテーブルが最後に注文した時間と内容を記録。AIは「食後のコーヒーを注文したテーブルが、さらに追加のデザートを注文するまでの平均時間」など、次の注文までの時間予測に活用します。
    メニューの組み合わせデータ 「ビールと唐揚げ」のように、一緒に注文される頻度の高いメニューの組み合わせを把握し、提案ロジックの精度向上に役立てます。

    2:在庫のリアルタイム推論を可能にするデータ

    2つ目は、注文量から消費量を差し引き、常に理論上のリアルタイム在庫を把握するために不可欠なデータです。

    このデータにより、AIは物理的な食材の状態とメニュー構成に基づき、より現実に近い残量を推論することができます。

    必要なデータ 目的と活用方法
    レシピ・構成データ 各メニューを作るために必要な正確な材料と使用量(例:「ハンバーグ1食には牛ひき肉が150g必要」)。これがAIによる「仮想在庫の差し引き計算」の基礎となります。
    初期在庫データ 営業開始時点、または発注を受けた時点のすべての食材の物理的な初期在庫量を正確にシステムに入力します。在庫推論の計算の起点となります。
    歩留まり率データ 食材の調理過程で生じるロス率(例: 鶏肉の筋や骨を取り除く際の廃棄率)。このデータを含めることで、AIは注文が入った際により現実に近い残量を推論できます。
    在庫単位の標準化 食材の計測単位(kg, 個, mL)をシステム内で統一します。これにより、レシピのグラム単位での消費と、在庫のパック単位での計測との間で正確な変換が可能になります。

    3:ロス削減と利益最大化のためのデータ

    最後のデータ群は、単なるオペレーションの効率化に留まらず、ロス削減と利益向上といった経営的な判断をAIが行うために不可欠な情報です。

    このデータにより、AIは食材の鮮度とメニューの収益性を考慮した上で、最も効果的な提案を導き出すことができます。

    必要なデータ 目的と活用方法
    食材の賞味期限データ 各食材の入荷日と厳密な賞味期限を記録。AIは「今日中に使い切らなければならない食材」を特定し、その食材を使ったメニューの提案を最優先します。
    原価率・利益率データ 各メニューの原価と販売価格を記録。ロス削減のメニューと並行して、利益率の高いメニューを提案することで、売上だけでなく利益の最大化を目指します。

    3つのコアデータに基づくAIシステム構築案

    次に、「注文行動」「リアルタイム在庫推論」「ロス削減と利益最大化」の3つのコアデータ群を活用して、どのようなシステムを構築することができるのか、また、どのような効率化が図れるのかを見ていきます。

    注文行動データを活用したシステム

    このシステムは、顧客の注文行動と動向を把握するデータを活用し、客単価を最大化することを目指します。

    まず、注文履歴データを分析し、あるテーブルが「食後のコーヒーを注文した後に、追加のデザートを注文するまでの平均時間」など、次に注文が入るタイミングとメニューを予測します。

    この予測は、時系列分析と確率モデルによって成り立っています。

    機械学習モデルが過去の注文履歴データ(日時、メニュー名、数量)を大量に分析し、時間帯ごとや季節ごとの需要の変動を学習します。

    学習をしたAIは「メインディッシュの注文完了から平均15分後にデザートの注文が発生しやすい」といった時間的なパターンや、「Aメニューの後にBメニューが注文される確率」といった連続的なパターンを認識します。

    さらに、各テーブルの注文状況と時間経過データを取得すれば、次に注文される可能性が最も高いメニューとその注文が発生する時間帯を予測することができます。

    また、過去の注文データから、「ビールと唐揚げ」のように、一緒に注文される頻度が高いメニューの組み合わせ(アソシエーションルール)を洗い出すことで、相性の良い組み合わせを提案することもできます。

    テーブル単位の注文データを活用すれば、次の注文が入りやすい最適な瞬間をAIが予測し、スタッフの呼びかけをトリガーすることができます。

    これには、テーブル単位の注文データに基づき、「最後にドリンクが注文されてから〇〇分経過」「メインディッシュが配膳されてから〇〇分経過」といった時間経過の変数を算出します。

    そして、これらの変数と、過去のデータから導かれた「注文発生確率が高い時間帯」を組み合わせ、「今、スタッフが声をかけるべき度合い」をスコア化します。

    スコアが一定のしきい値を超えたとき、スタッフのタブレットやインカムに「テーブルT003、ドリンク追加提案の最適タイミング」といった通知を行い、売上機会の逸失を防ぎます。

    リアルタイム在庫推論システム

    このシステムは、在庫のリアルタイム推論を可能にするデータを基盤とし、物理的な棚卸し負担を減らし、食材の無駄を排除することを目的とします。

    レシピ・構成データを利用することで、注文が入るたびに、全てのメニューの仮想在庫(食数)と食材のグラム単位の残量をリアルタイムで差し引き、推論します。

    これにより、実地棚卸しを行うことなく、現実に近い在庫を把握できます。

    例えば、「ハンバーグ1食には牛ひき肉が150g必要」といったように、すべてのメニューに必要な食材の正確な消費量をシステムに定義します。

    そして、注文が入った瞬間、AIはこの定義に基づき、必要な食材量を現在の初期在庫データまたは実行中の理論残高から差し引きます。

    このプロセスをすべての注文で瞬時に繰り返すことで、スタッフが棚卸しをしなくても、食材のグラム単位での正確な残量(理論値)をリアルタイムで推論し、表示するというものです。

    また、初期在庫データや歩留まり率データ(調理過程で生じる食材のロス率)を組み合わることで、翌日の予約状況や過去の需要パターンに基づき、廃棄が出ない最適な仕込み量を推奨したり、欠品が起きる前に必要な発注量を自動計算・通知したりすることができます。

    ロス・利益最大化のためのリアルタイム提案エージェント

    このシステムは、ロス削減と利益最大化のための判断を、リアルタイムで実行することを目的とします。

    まずは、食材の賞味期限データやリアルタイム在庫推論システムから得られた残量データに基づき、各食材に「鮮度スコア」や「在庫圧迫度」といった数値を割り当てます。

    AIまたはビジネスロジックは、その食材を使うすべてのメニューに、これらの数値を合算・重み付けしてロスリスクスコアとして割り当てます。

    このスコアに基づき、メニューをリアルタイムで廃棄リスクの高い順にランキングします。このランキングが、接客時の提案優先順位の基礎となります。

    ロスリスクスコアが同じメニューが複数ある場合、AIは次に利益率が高いメニューを優先的に選定するロジックを適用します。

    これにより、同じロス削減効果を得るならば、より多くの利益をもたらすメニューを優先的に提案します。

    このフィルタリングとランキングを通じて、「今、在庫を減らすべきメニュー」かつ「利益率が高いメニュー」という最適解を一つに絞り込みます。

    その結果、「新鮮な食材を使った季節のパスタはいかがですか?」といった提案トークを生成し、スタッフのタブレットに表示します。

    これらのシステムが連携することで、日々の運営における非効率性とコストを根本的に解消します。

    ロスリスクの高いメニューを提案するエージェントをDifyで構築してみた

    今回は、前章で紹介した「ロス・利益最大化のためのリアルタイム提案エージェント」の簡易的なデモシステムを、DifyとGoogle Apps Script(以下、GAS)で構築してみました。

    最終的には、スタッフが「今日、一番売るべきメニューは何ですか?その理由も教えてください。」と質問すると、中央データベースに集約されている在庫やロスリスクスコアを参照し、適切なメニューを提案してくれることを目指します。

    中央データベース(Google Sheets)とGASによるAPIの構築

    今回構築するシステムでは、在庫やロスリスクスコアといったデータが集約されている「中央データベース」の代わりに、Google Sheetsに記載された内容をデータベースとして利用し、Google Apps Script(GAS)を使って外部APIを作成しました。

    このAPIは、Difyからリクエストを受けるとGoolge Sheetsのデータを参照し、ロスリスクスコアが最も高いメニューをJSON形式で返します。

    今回は、「季節のパスタ」が最もロスリスクの高く、利益率が高いメニューとして設定しています。

    Google Sheetsで構築した仮のデータベース

    このGoogle SheetsとGASを連携させ、GASがGoogle Sheets内の最新のデータにアクセスすることで、ロスリスクが最も高いメニューとして「季節のパスタ」が正常に選定され、JSONデータが返ってきています。

    GASのAPI URLをブラウザに貼り付けた際の応答。正常にロスリスクが最も高いメニューを選定している。

    Difyでワークフローの構築

    次に、このGAS APIを、DifyのワークフローのHTTPリクエストノードに組み込むことで、GASからのJSONデータを取得します。

    飲食店運営にAIをどう活用する?「在庫・ロス管理」「売上機会の損失」に対するAIシステムを提案
    HTTPリクエストノードにGASのAPI URLを記載している

    そして、コード実行ノードにて、外部から取得したデータをLLMが利用できる形に変換するよう、Pythonコードを書いています。

    飲食店運営にAIをどう活用する?「在庫・ロス管理」「売上機会の損失」に対するAIシステムを提案
    コード実行ノードにて、外部から取得したデータをLLMが利用できる形に変換できるようにしている。

    整形済みのレポートはLLMノードに渡され、ユーザーの元の質問を元に、推奨メニューの情報を自然な会話形式の回答に変換します。

    飲食店運営にAIをどう活用する?「在庫・ロス管理」「売上機会の損失」に対するAIシステムを提案
    構築したワークフローの全体像と、LLMノードの設定画面

    これにより、「今日、一番売るべきメニューは何ですか?その理由も教えてください。」と入力欄に書き込むことで、Goolge Sheetsのデータを参照し、売るべきメニューとその理由を書いてくれています。

    飲食店運営にAIをどう活用する?「在庫・ロス管理」「売上機会の損失」に対するAIシステムを提案
    入力欄と出力結果

    まとめ

    本記事では、飲食店の運営における「在庫・ロス管理」「売上機会の損失」「情報のリアルタイム性の欠如」という課題に焦点を当て、AIの可能性について紹介してきました。

    また、Difyを活用したワークフローでは、ロスリスクの高いメニューを提案をしてくれるエージェントを構築しました。

    今後も、その他の課題を解決するエージェントについても紹介していきたいと思います。

  • 生成AIでデキる営業の商談メモを再現性のあるナレッジへ、Difyを使ったナレッジ検索システム構築方法も解説

    生成AIでデキる営業の商談メモを再現性のあるナレッジへ、Difyを使ったナレッジ検索システム構築方法も解説

    営業担当者は、日々の営業活動の最中、商談の内容や顧客の反応、競合に関する情報などをメモに残しています。

    SFA(営業管理システム)などを活用して日々の営業活動を記録していれば、組織のナレッジ(知見)として蓄積することができます。

    しかし、一時的な記録としてメモを取り、その後は「個人の中に閉じた情報」になってしまうと、組織全体の成長に活用することはできません。

    特に、成績の良い営業担当者のメモは、「成功への洞察」や「失注から得た貴重な教訓」といった経験知になり得ます。

    一方、業務を遂行しながら、日々の商談内容のメモを蓄積するの営業担当者にとっては手間であり、データの収集が難しいと感じるケースも多くあります。

    そこで本記事では、メモを蓄積することでのメリットにはじまり、AIによる検索・活用を前提とした「営業メモの新しい書き方」と、そのメモを組織全体で活用するための具体的な「ナレッジ蓄積・検索システムの構築方法」を解説します。

    メモを蓄積することが組織にもたらすメリット

    成績の良い担当者の商談メモを蓄積することは、単なる記録の整理ではなく、営業活動全体を属人化から組織的な学習サイクルへと変革させるための投資だと言えます。

    具体的には、ベテラン営業担当者が商談で無意識に行っている「なぜ」「いつ」「どうしたか」というノウハウや、顧客が契約を決断した潜在的な理由を、メモを通じて言語化し、構造化します。

    これらの知恵がナレッジベースに蓄積されることで、第三者が再現できる「パターン」となり、経験の浅い担当者でもAIに類似事例を質問することで、過去の成功プロセスに基づいた具体的な行動指針を得ることができます。

    ベテラン営業担当者にとっても、自身の成功ロジックを客観視でき、他の担当者が抱える案件の「事実」や「解釈」も参照することができます。

    自身が直接関わっていない若手の商談状況についても、構造化されたメモを見ることで、報告を待たずに案件の核心の迅速な理解が可能となります。これにより、指導やフォローアップの精度とスピードが向上します。

    また、成功事例の共有以上に重要なのが、失敗(失注)から得られる教訓です。

    顧客が競合を選んだ具体的な理由や、商材の致命的な懸念事項が記された失注メモは、製品開発チームやマーケティング戦略チームにとって価値ある情報源となります。

    失敗の教訓を組織のデータベースに構造的に集約することで、組織は同じ失敗を繰り返すことを防ぎ、市場のニーズに合わせた製品改善や戦略立案に役立てる学習サイクルを確立できます。

    AIがナレッジとして認識するためのメモの条件

    個人の経験知を、組織のナレッジとして活用するためには、AIが活用できる「構造化されたデータ資産」として扱う必要があります。

    AIが情報を正確に把握し、価値あるナレッジとして抽出するためには、メモ作成時に以下の3つの条件を満たすことが重要です。

    1:メタ情報の明確化

    メモの本文に入る前に、そのメモが「どのような状況で生まれた情報か」を示すメタ情報(付帯情報)を明確にすることが、AIが情報を分類し、適切な文脈で検索を行うための鍵となります。

    以下は、メモに必須となるメタ情報とその重要性、AIを活用した検索における具体的な役割を表した表です。

    メタ情報 必須理由 AI検索時の具体的な役割
    日時 情報の鮮度と時系列を正確に把握するため。 「3ヶ月前の競合の動きを知りたい」など、時間軸に基づく分析を可能にする。
    話者・役職 発言が誰によってなされたか(発言の重み)を判断するため。 「先方の部長の発言のみを抽出したい」など、権限に基づく戦略的な情報抽出に役立つ。
    顧客名・商材 どのプロジェクト・顧客に関する情報かを特定し、横断的なナレッジ化を行うため。 「A社の案件における共通の懸念点」など、具体的なターゲットに基づく検索を実現する。
    フェーズ 商談のどの段階(初期ヒアリング、価格交渉など)の議論かという文脈を明確にするため。 「クロージングフェーズで成功した切り返し」など、営業プロセスに特化した実践的なナレッジを抽出する。

    特に重要なのが、「どのフェーズで行われた議論か」という情報です。

    このフェーズ情報が付いていることで、AIは「初期ヒアリングで最も盛り上がった話題」や「価格交渉で使われた常套句」など、営業プロセスに特化した具体的なナレッジを抽出できるようになります。

    2:本文の構造化

    メモの本文を単なる会話の羅列にするのではなく、情報を明確な構造に分けて記述することが、AIによる正確な分析を可能にします。

    ここで推奨するのが、以下の3要素への分離です。

    顧客の発言・要求といった事実

    商談で実際に顧客が発言した客観的な情報を記録します。「〜と推測される」「〜かもしれない」といった個人の主観を排除し、正確なニーズ分析の土台とします。

    例えば、「納期は最低でも3ヶ月以内にしてほしい。」 「競合B社の製品のUXは評価している。」といった発言がこれにあたります。

    営業担当者の推測や真意

    次に、事実に基づき、営業担当者が感じた推測や顧客の真意を記録します。

    これは、ベテランの洞察や経験が最も反映される部分であり、AIが文脈と背景を理解するために非常に重要です。

    例えば、「納期を強く要求したのは、社内の既存システム更改が迫っているためと推測される。」 「B社のUXを評価しつつも、価格交渉を重ねてきたのは、最終的な決定権が価格を重視する層にある可能性がある。」といったメモです。

    次の行動

    その商談で得た情報に基づき、ナレッジを行動に結びつけるための具体的なステップを記録します。

    例えば、「来週火曜日までに、競合B社の価格に対する優位性を具体的に示す資料を作成し、部長にレビューを依頼する。」といったように、具体的なアクションを記述します。

    この構造化により、AIは「顧客の客観的なニーズ(事実)」と「営業担当者の深い洞察(解釈)」を明確に区別して学習・検索できるようになるほか、その後のアクションを経て正しい成果につながったかを検証するデータとなります。

    3:曖昧な表現の排除

    さらに、AIによるナレッジ検索の精度を高めるためには、メモから抽象的で曖昧な表現を排除する必要があります。

    「あの競合」や「先方の部長」といった抽象的な表現は、AIにとって情報価値がゼロです。

    例えば、「先方の部長は、以前のサービスについて少し不満があったようだ。」というメモであると、誰が何に対して不満があったのかが分かりません。

    抽象的なメモでもAIは文脈を捉えようとしますが、推測や解釈のプロセスで齟齬が生まれる可能性があり、その分、情報が不確実になります。

    そこで、「山田部長は、旧システムAのレスポンス速度について具体的な不満点(1.5秒の遅延)を指摘した。」というふうに、感情的な表現や定性的な評価を、可能な限り数字や具体的な事象に置き換えることで、AIは定量的な比較や検索を行えるようになります。

    AI議事録ツールの活用

    このように、メモにメタ情報を付与し、本文を構造化することで、AIのナレッジとして活用することができます。

    しかし、商談中にこれを意識しながらメモを取るのは難易度が高く、商談後に営業担当者が手動でこれらの作業を行えば新たな負担となってしまいます。

    そこで、AI議事録ツールを活用することで、メモの必須条件を満たしつつ、営業担当者の負担を削減することができます。

    本章では、AI議事録ツールがどのような役割を果たすのかを紹介します。

    自動メタ情報付与による営業負荷の軽減

    商談時の「いつ」「誰が」「どの案件で」といったメタ情報の付与は、AI議事録ツールが自動化できる重要な機能の一つです。

    AI議事録ツールは、商談が行われたシステム時刻を自動で正確に記録します。

    また、音声から話者分離を行い、「誰が何を話したか」を正確に文字起こしデータに紐付けるツールもあります。

    これにより、手動での記録の手間がなくなり、「日時」「話者」のメタ情報が自動で満たされます。

    さらに、SFAやCRMといった営業支援システムとさせることで、文字起こしデータを案件名、顧客名、商談フェーズといったSFAのデータに自動で紐づけることができます。

    この連携により、メモが個人のファイルに「孤立化」することなく、組織のデータベースに構造的に紐づけられます。

    この紐付けを行うことで、後にナレッジ検索(RAG)を行う際に、AIが「どのフェーズの案件か」という文脈を理解するための基盤を構築することができます。

    AIによる自動要約と構造化

    二つ目は、文字起こし後のデータ整理です。AI議事録ツールは、音声認識された会話の膨大なテキストデータから、AIがナレッジとして最も価値のある部分を抽出し、あらかじめ設定された構造に自動で整形します。

    AIが音声認識された会話のテキストデータを受け取ると、以下のプロセスを通じて構造化データを自動で作成します。

    まず、AIは会話のトーン、キーワードの出現頻度、質問と回答の関係性といった要素を分析し、「顧客ニーズ」「競合への評価」「懸念事項」など、ナレッジとして最も価値のある重要ポイントを特定します。

    次に、特定されたポイントを、AIがあらかじめ学習したパターン認識に基づいて要素ごとに分離し、分類します。

    例えば、「事実」「解釈/所感」「次のアクション」を抽出してと事前に定義した場合、顧客の具体的な発言や要求は「事実」として分離され、営業担当者が聞き取った内容から推測される懸念事項や顧客の真意は「解釈/所感」の雛形に当てはめられます。

    最後に、会話の中で触れられた「いつまでに」「誰が」といったタスクや期日の言及は、「次のアクション」として抽出・整理されます。

    そして、AIが一定のプロンプトとルールに従って構造化することで、全社のメモが統一されたフォーマット(JSONやCSVなどの構造化データ)で出力されます。

    この均質で構造化されたデータが、後の「ナレッジ検索」の品質を保証し、高品質なインプットを実現します。

    AI議事録ツールを活用することで、メモの蓄積という業務を効率化し、組織のナレッジベース構築を支援します。

    関連記事:AI議事録ツールに関してより詳しく知りたい方は、こちらの記事も参考にしてください。
    生成AIで無駄な会議をなくす?議事録にAI活用し「生産的な議論と問題解決の場」へと変革するヒントを紹介

    Difyでナレッジ蓄積・検索システムを構築構築してみた

    前章で紹介したAI議事録ツールには、ナレッジを蓄積して検索までできる製品もありますが、構造をより深く理解するために、今回もノーコード・ローコードプラットフォーム「Dify」で実際にシステムを構築してみました。

    今回は、手書きやAI議事録ツールなどで書き出した商談のメモをアップロードすることで、「事実」「解釈」「次の行動」の3つの項目別に要約を行い、その情報を蓄積して検索することができる仕様としました。

    このシステムの構築方法は、三段階のプロセスで構成されています。

    ステージ1:LLMによる知見の構造化

    まずは、非均質な商談のメモから「経験知」を抽出し、情報形式へとデータを変換します。

    具体的には、DifyのワークフローのLLMノードでシステムプロンプトを設定することで、入力された長文のメモに対し、以下の構造化処理を実行させます。

    【システムプロンプト】

    【実行指示】
    あなたは入力された内容から、重要な知見を抽出する専門家AIです。
    1. 入力されたテキストを分析し、以下の構造を持つ「議事録メモ」を**Markdown形式の日本語テキスト**で出力してください。
    2. **メタ情報**、**事実**、**解釈**、**次の行動**の各項目を必ず埋めてください。
    3. 余分なコメントや説明は一切加えないでください。

    ### 議事録メモ
    * **顧客名:** [議事録から抽出]
    * **製品名:** [議事録から抽出]
    * **営業フェーズ:** [議事録から抽出]
    * **日付:** [議事録から抽出 YYYY-MM-DD]

    #### 1. 事実 (Fact)
    [会議で発言された客観的な事柄を記述]

    #### 2. 解釈と洞察 (Interpretation & Insights)
    [事実に基づき、顧客の真のニーズや懸念、営業上の示唆を記述]

    #### 3. 次の行動 (Next Action)
    [誰が、何を、いつまでに行うべきか、具体的な行動を記述]

    【構造化された要素の目的と役割】

    構造化された要素 目的と意味
    【メタ情報】 顧客名、営業フェーズ、日付といった属性情報を抽出します。これはステージ II でRAGの検索フィルタとして利用され、検索精度を高めます(例:「〇〇社とのクロージングのメモだけを検索」)。
    事実 (Fact) 会議で発言された客観的な事柄(例:競合製品の具体的な弱点、顧客の予算発言)のみを記録します。
    解釈と洞察 (Interpretation) 営業担当者がその事実から得た示唆、顧客の真のニーズ、市場の分析といった主観的な知見を分離します。これが組織知の最も価値ある部分となります。
    次の行動 次に誰が、何を、いつまでに行うべきかという、行動を促す具体的なタスクを抽出します。

    なお、出力形式は、言葉や文章の意味をコンピュータが理解できる「数値の列(配列)」に変換したJSON形式であれば、厳格な検索・処理が可能ですが、今回はJSON形式ではエラーが発生してしまったため、LLMが処理を得意とするMarkdown形式での出力としました。

    ステージ2:構造化データの資産化

    ステージ1でLLMによって均質で構造化されたMarkdown形式のデータが手に入りましたが、このデータはまだ単なるファイルに過ぎません。

    そこでステージ2では、ファイルを「組織知」として検索・活用できるデジタル資産に変換していきます。

    この資産化を実現するのが、Difyのナレッジベース(データセット)機能です。

    これは、LLMが外部知識を参照するための基盤、すなわちRAG(検索拡張生成)のエンジンとなります。

    まず、ステージ1で作成された文章をテキストファイルとして保存し、Difyのナレッジベースへアップロードします。

    Difyはアップロードされたドキュメントに対し、RAG機能の中核となる処理を自動で実行します。

    具体的には、議事録メモ全体を、LLMが一度に処理できるサイズの意味的なブロック(チャンク)に分割します。

    Difyでナレッジ蓄積・検索システムを構築構築してみた
    ファイルをアップロードすることで、自動的にチャンク分割などを実行してくれている。

    この際、nn(ダブル改行)を識別子として設定することで、「事実」や「解釈」といったセクション単位で情報が切り分けられます。

    そして、分割された各チャンクは、埋め込みモデルによってベクトル(数値の配列)に変換されます。

    このベクトルは、ドキュメントの意味的な位置を示す地図のようなもので、ベクトルインデックスに登録されます。

    このベクトルインデックスが完成することで、ユーザーが質問すると、その質問もベクトルに変換され、ベクトルインデックス内の意味的に最も近い「解釈と洞察」のチャンク(ベクトル)が瞬時に特定されます。

    こうすることで、全社の営業メモがDify上の単一のナレッジベースに集約され、担当者や部署が異なっても、最新かつ均質な情報にアクセスできる環境が確立されます。

    ステージ3:組織知の活用

    最後のステージでは、ステージ2で構築されたナレッジ資産を、対話型のインターフェースを通じて活用できるようにします。

    この活用フェーズは、Difyのチャットボットアプリケーション機能を用いて構築されます。

    これは、ワークフローのような複雑なノード接続を必要とせず、RAG機能を設定として有効化できる、エンドユーザー向けのインターフェースです。

    アプリケーションを作成後、その設定画面で先ほど「利用可能」となったナレッジベース(データセット)を接続・有効化します。

    これにより、ユーザーがチャットボットに質問を投げかけると、LLMは自動的に接続されたナレッジベースに対して検索(RAG)を実行するため、LLMの回答は「過去の営業メモ」という現実の、根拠あるデータに裏打ちされます。

    Difyでナレッジ蓄積・検索システムを構築構築してみた
    チャットボットアプリケーションの設定画面。ナレッジベースへアップロードしたファイルをコンテキストとして知識をインポートしている。

    また、チャットボットアプリのシステムプロンプトでは、AIに対して厳格な役割と出力を指示します。

    【システムプロンプトの内容】

    AIの役割: 「あなたは営業知の専門家AIである」
    回答の目的: 単に情報を返すだけでなく、組織が行動を起こすための洞察を提供すること。

    この指示により、チャットボットはナレッジベースから得た情報を統合し、実務的な構造を持つ回答を出力します。

    今回は、5つの仮の会議メモをコンテキストとしてアップロードし、「ABCテクノロジー社への最終提案において、現在最も警戒すべきコスト面のリスクは何か?過去の失注要因も踏まえて具体的な対策を教えて。」「nsight Xを提案する上で、競合他社に対する最も効果的な切り口は何?」と質問しました。

    すると、必要なメモを検索した上で、事実の提示や具体的なトーク例などを提案してくれました。

    Difyでナレッジ蓄積・検索システムを構築構築してみた
    質問に対し、ナレッジベースにアップロードした内容を参照して回答してくれている。

    まとめ

    このように、商談の洞察や教訓のメモ内容をAIが分析できるように整えて蓄積していくことで、進捗状況や成功パターンの把握に加え、フェーズごとの対応策や具体的なトーク例などを提示してくれます。

    Difyなどのノーコード・ローコードプラットフォームを活用し、簡易的に構築したシステムでメモを蓄積することでのメリットを感じた上で、さらなる拡張やSFAの導入の検討などを行うことで、現場主導の積極的なメモの蓄積とデータ活用を支援するでしょう。

  • AI-OCRとは?基本定義や種類からDifyとGeminiで営業の紙処理を自動化するステップも解説

    AI-OCRとは?基本定義や種類からDifyとGeminiで営業の紙処理を自動化するステップも解説

    企業のデジタルトランスフォーメーション(DX)が叫ばれる現代においても、日々の業務に不可欠な書類処理が未だに紙や手入力に依存しているケースも多くあります。

    このアナログな業務プロセスが非効率性を生み、業務効率を低下させる大きな原因となっています。

    こうした書類処理を自動化するために一役を買うのが、「AI-OCR」という技術です。

    本記事では、AI-OCRの基本定義や種類、選定時のチェックポイントに加え、DifyプラットフォームによるAI-OCRシステムの具体的な構築ステップなどを紹介します。

    紙ベースの非効率性とAI-OCR活用の必要性

    多くの組織では、未だに紙帳ベースの書類処理が根強く残っており、これが企業活動を支えるバックオフィス部門や営業部門の生産性を押し下げています。

    総務・経理部門における非効率性の課題

    総務部門では、部署からの備品発注書や、業者からの納品書や請求書など、日々、様々な種類の紙帳が集約されます。

    これらの内容は、人手で読み取り、在庫管理システムや会計システムへ転記・入力します。

    こうした事務処理作業には膨大な時間がかかるほか、大量のデータを手入力する過程で、誤字や転記ミスが発生しやすいという課題もあります。

    これが、在庫の過不足や経費処理の遅延、さらには取引先とのトラブルに繋がることもあります。

    経理部門における請求書や経費精算の処理も同様で、紙の情報を基幹システムに打ち込むアナログな仕組みが、経理業務全体のボトルネックとなっています。

    営業・その他の部門におけるコア業務への集中阻害

    営業部門は、売上に直結するビジネス活動に集中すべきですが、間接業務に時間を奪われがちです。

    例えば、顧客から受け取る注文書や契約書は、非定型なレイアウトや手書き文字を含むことがあり、これをSFA(営業管理システム)やCRM(顧客管理システム)といったシステムへ登録する作業が大きな作業負担となります。

    また、契約情報を迅速にデジタル化できないことにより、商品やサービスの提供開始が遅れ、顧客満足度の低下や機会損失に繋がる可能性もあります。

    このように、紙ベースの業務は「人手による入力時間の浪費」「ミスの多発」「コア業務への集中阻害」という複数の課題を抱えており、企業全体の生産性を押し下げています。

    これらの課題を解決する一つの手段として、AIを組み込んだAI-OCR(光学的文字認識)技術があります。

    AI-OCRは、単に文字を読み取れるだけでなく、ディープラーニングなどの技術を活用して、複雑なフォーマットや認識が難しい手書き文字からも、必要な情報を高精度で抽出する仕組みを持っています。

    AI-OCRとは?その定義と基本機能

    AI-OCRとは、AIを組み込んだOptical Character Recognition(光学的文字認識)の略称です。

    画像データとして取り込んだ手書きや印刷された文字を、AIが解析し、デジタルなテキストデータとして自動で認識・抽出する仕組みのことです。

    AI-OCRの中核には、ディープラーニング(深層学習)といった人工知能技術が用いられています。

    これにより、複雑な文字の形やレイアウトを、人間のように分析し、判断することが可能となります。

    AI-OCRの処理フローと仕組み

    AI-OCRは、以下の基本的な仕組みで動作し、紙の情報を価値あるデータに変換します。

    ① 画像データの取り込み

    紙の請求書や発注書をスキャナーや複合機で読み込み、JPEGやPDFなどの画像データとして取り込みます。

    ② 文字の読み取りと認識

    AI-OCRエンジンが、画像内のどこに文字があるかを特定します。

    そして、ディープラーニングモデルが、その文字一つ一つを解析し、対応するテキストデータに変換します。

    手書き文字や異なるフォントが混在していたとしても、AIが文脈や文字の形状を学習しているため、高い精度で読み取ることができます。

    データの整理と構造化

    AI-OCRは、単にテキスト化するだけでなく、抽出した文字が何を意味するかを理解します。

    例えば、「日付」「金額」「品名」といった項目を識別し、意味のあるデータとして整理します。

    この段階で、データはシステムに登録しやすいCSVやJSONなどの形式に変換されます。

    自動連携と分析

    整理されたデータは、APIを通じてバックオフィスシステムに自動的に送信され、次の業務プロセス(例:在庫数の更新、支払い処理の開始)を起動する機能を果たします。

    蓄積された大量のデータは、分析のベースとして活用され、発注傾向やコスト管理の最適化などに役立ちます。

    さらに、IoTデバイスのデータと連携すれば、広範な機能を持つシステム構築も視野に入ってきます。

    従来のOCRとの違いを比較

    AI-OCRを注目を集めたのは、単に文字を認識するだけでなく、従来のOCR(Optical Character Recognition)が抱えていた限界を、ディープラーニングという人工知能の力でブレークスルーした点にあります。

    従来のOCRの限界

    従来のOCR技術は、optical character recognitionの定義が示すように、光学的情報から文字を認識する仕組みでした。

    しかし、その基本は「テンプレートベース」や「ルールベース」であり、活字や定型フォーマットの文字認識には対応できましたが、手書き文字や、傾き、汚れ、かすれなどがある画像、特に品質が落ちやすいFAXで送られた文字は読み取れませんでした。

    また、請求書や注文書など、レイアウトやデザインが異なる非定型な書類に対しては、その都度、読み取り範囲や設定を人手で調整する必要があり、非常に作業負荷が高く、比較的導入が難しいという課題がありました。

    こうした中登場したAI-OCRは、ディープラーニングを用いた学習能力を持つことで、従来の課題を一掃しました。

    AI-OCRが実現した決定的な違い

    AI-OCRは、大量のデータから様々な手書き文字のパターンを学習します。その結果、崩れた手書き文字や、枠からはみ出した文字でも、文脈や形状を分析して正確に認識することが可能になりました。

    また、レイアウトが異なる取引先ごとの注文書や請求書であっても、AIが自動で「これは合計金額」「これは発注日」といった意味を理解し、必要な項目を特定して抽出します。

    これにより、テンプレート設定の作業がほぼ不要となりました。

    また、AI-OCRの最大の特徴は、利用するごとに精度が向上していく仕組みです。

    AIが間違って認識した箇所をオペレーターが修正すると、その修正履歴をディープラーニングモデルが学習し、次回以降の同様のパターンの認識精度を高めます。

    これは、従来のOCRのように人手による再設定やカスタマイズではなく、AI自身が成長し続けることを意味します。

    AI-OCRの種類

    AI-OCRの導入を検討する際、まず知っておくべきことは、その種類が大きく「汎用型」と「業務特化型」の二つに分けられることです。

    自社の作業内容や目的に合わせて、どちらの特徴を持つシステムが最適かを選ぶことが、導入成功の鍵となります。

    汎用型AI-OCR

    汎用型AI-OCRは、一般的な文字認識機能を持ち、事前に特定の定型フォーマットに限定されず、さまざまな文書タイプに対応できる柔軟性を備えています。

    ユーザーが読み取りたい項目を自由に設定し、カスタマイズすることが可能です。

    そのため、処理する文書の種類が各種にわたり、少量多品目の書類を扱う企業に適しています。

    特定の定型業務だけでなく、会社全体のデジタル化の基本インフラとして活用したい場合に有効です。

    業務特化型AI-OCR

    一方、業務特化型AI-OCRは、会計処理や建設業、医療など、特定の業界やビジネスプロセスに最適化されているのが特徴です。

    請求書、領収書、注文書など、特定の定型文書の読み取り精度や項目抽出率が極めて高く設計されています。

    そのため、特定の部門や作業で、大量の定型文書を扱う場合に効率を発揮します。

    選定時の重要チェックポイント

    自社のニーズに合わせて、汎用型か特化型かを判断した後、具体的な製品を選ぶための検査項目を確認します。

    機能性の検査と業務への適応力

    AI-OCRの導入時間や作業負荷を削減するため、読み取りたい項目(品名、単価、手書きの署名など)を、利用者が簡単に設定できる機能が備わっているかを確認する必要があります。

    また、多種多様な紙帳(請求書、注文書、領収書など)の種類をAIが自動で判断し、適切な処理フローへ振り分けられる機能があるか、FAX画像や手書き文字といった品質の低いデータでの認識精度が十分高いか、認識精度が低い場合に担当者が簡単にデータ修正を行えるインターフェースが用意されているかなどを確認しましょう。

    コストとパフォーマンス

    AI-OCRのコストは、多くの場合、従量課金ベースとなります。

    そのため、月間処理枚数や、読み取りに失敗した場合の課金仕組み、初期設定費用など、全てのコスト構造を明確にチェックします。

    そして、AI-OCRが削減する人手による入力時間や、ヒューマンエラーによるコストを定量的に算出し、導入コストと比較して、投資に見合うだけの効果が得られるかを確認します。

    導入後のサポートと最適化

    導入はゴールではなくスタートです。継続的に利用し、DXを推進するためにはサポート体制が欠かせません。

    そのため、トラブル発生時に迅速に対応してくれる時間帯や、技術サポートのレベルを確認します。

    また、AIが利用者の修正履歴をディープラーニングで学習し、精度を継続的に向上させる仕組みが用意されているか、Difyのような外部のワークフローツールやIoTデバイスなどの将来的な拡張連携が容易に可能かどうかを確認します。

    特に、データ連携や自動化を目的とする場合は、APIの柔軟性が重要になります。

    これらのチェックポイントを総合的に評価し、自社の業務フローに最も最適で、かつコストに見合うAI-OCR製品を選定することが、成功の秘訣です。

    DifyによるAI-OCRシステムの具体的な構築ステップ

    これまで解説したAI-OCRの機能と仕組みを、ノーコード・ローコードプラットフォームであるDifyを活用することで、専門知識がなくとも構築することができます。

    本記事では、FAXやスキャンされたPDFで届く非定型な契約書をSFAへ手動で転記する作業を効率化するため、DifyとGemini VLMを活用した簡易的なAI-OCRシステムを構築してみました。

    OCR層とLLM処理層の統合(Gemini VLMの役割)

    DifyでAI-OCRシステムを構築する場合、Google Cloud Vision APIなどの高精度な外部OCRサービスをDifyのツール機能として組み込むこともできますが、今回は、画像とテキストの両方を同時に理解できる「Gemini VLM」を活用した簡易なシステム構成にしました。

    具体的には、テキスト抽出を行うOCR層と、データ分析・整理の役割を担うLLM処理層の両方をGemini VLMが担います。

    Gemini VLMにより、通常は必要となる外部OCRツールとの連携やCode実行ノードなどの中間処理を必要とせず、画像認識とテキスト抽出、抽出したテキストの分析・整理を一括で行います。

    これにより、ユーザーが契約書の画像をDifyにアップロードすることでLLMノードが起動し、画像ファイルを直接読み取って文字(テキスト)データに変換します。

    そして、SYSTEMプロンプトとJSONスキーマに基づき、抽出したテキストを分析・整理し、営業データとして意味のある構造化JSONデータに変換します。

    AI-OCRとは?DifyとGeminiで実現する営業の紙処理を自動化するAI-OCRシステム構築ガイドも解説
    設定したSYSTEMプロンプトとJSONスキーマ

    アウトプットの定義

    構造化されたJSONデータは、本来はHTTPリクエストノードを通じて、自社のSFAシステムなどへ自動で送信します。

    今回はSFAシステムが存在しないため、「出力ノード」 を使用し、架空の購買契約書からテキストを抽出し、構造化されたデータが正しく生成されたことを画面上に表示することでシミュレーションしています。

    AI-OCRとは?DifyとGeminiで実現する営業の紙処理を自動化するAI-OCRシステム構築ガイドも解説
    架空の購買契約書
    AI-OCRとは?DifyとGeminiで実現する営業の紙処理を自動化するAI-OCRシステム構築ガイドも解説
    購買契約書から、必要な項目をJSONデータとして生成してくれている。

    まとめ

    このように、Gemini VLMを活用することで、シンプルな構成で画像のテキスト読み取りと、SFAに登録可能な整形済みのJSONデータ生成を行うことができます。

    一方、外部OCRサービスを活用する方法では、OCR後の構造化ロジックを自前で組む必要があり、システム構築の複雑性が増しますが、毎月数万枚、数十万枚といった大量のバッチ処理する場合でも非常に速く、安定した処理を実行してくれます。

    まずは、簡易的なPoCをほぼコストゼロで実施し効果を実感した後に、処理量を増やすために拡張するなど、段階的なDX推進が可能になります。

  • AIで社内に点在するデータを「価値」に変えるには?営業業務効率化へ向けたDifyによるシステム構築方法も紹介

    AIで社内に点在するデータを「価値」に変えるには?営業業務効率化へ向けたDifyによるシステム構築方法も紹介

    多くの企業において、重要なデータがSaaSツール、ファイルサーバー、データベースなどに点在し、データのサイロ化や分析の遅延といった課題を引き起こしています。

    例えば、営業データはCRM、顧客対応履歴はヘルプデスクツール、財務データは会計システムといった具合に、情報が各システム内に閉じ込められることで、部門横断的な分析が困難になります。

    また、各システムから必要なデータを集める際には、手作業でエクスポートし、整形・統合する作業が発生します。

    さらに、同じ指標でも、システムによって定義や集計方法が異なる場合、どの数字が正しいのかが分からなくなる「データ不信」の状態を招きます。

    従来のビジネスインテリジェンス(BI)ツールやデータウェアハウス(DWH)構築は、これらの課題解決に有効ですが、大規模な初期投資と専門的な工数を要します。

    そこで本記事では、ノーコード・ローコードでAIアプリケーション開発ができる「Dify」を活用し、社内の散らばったデータを自動収集・分析するための「データベース構築と連携の設計思想」について解説します。

    Difyとは?AIアプリケーション開発のための統合プラットフォーム

    Difyは、LLM(大規模言語モデル)を活用し、実用的なAIアプリケーションを迅速に構築・運用するための、オープンソースのノーコード・ローコードプラットフォームです。

    従来のAI開発では、モデルの選定、プロンプトの設計、データ連携、インターフェースの構築などを個別に進める必要がありましたが、Difyはこれらを統合し、以下の主要な機能を提供します。

    機能名称 概要 Difyを活用した効果
    RAG(Retrieval-Augmented Generation)機能 社内のドキュメントやデータ(知識)を取り込み、AIが参照できるようにする機能。 最新の社内情報や非構造化データに基づいた、信頼性の高い回答をAIに生成させることが可能。
    プロンプトオーケストレーション 目的のタスクに合わせたプロンプト(指示)の設計、デバッグ、バージョン管理を一元的に行える。 AIの出力を安定させ、ビジネスロジックに沿った形でAIを運用・改善していくことが容易になる。
    ツール(Function Calling)連携 外部のアプリケーション(SaaSやデータベースのAPI)とAIを接続し、AIが自律的に外部システムを操作して情報を取得・実行できるようにする。 散在する構造化データやSaaSのリアルタイムデータにAIがアクセスし、より実践的なタスク実行や分析を可能にする。
    Webアプリへのデプロイ 開発したAIアプリケーションを、すぐに利用可能なWebインターフェースとして公開できる。 開発後すぐに社内ユーザーが利用できる状態にでき、利用部門への展開を迅速に行える。

    Difyは、こうした機能により、データ分析を専門としないユーザーでも、AIを中心とした新しいデータ連携・分析基盤を迅速に構築することを可能にします。

    また、初期段階で大規模なデータパイプラインを必要とせず、基盤となるLLMの切り替えやプロンプトの調整が容易で、スモールスタートが可能なのもDifyの利点です。

    まずは特定の部門やデータセットに絞ってRAGやツール連携を試し、フィードバックを得ながら分析範囲を拡張するアジャイルな開発に適しています。

    データの「正しい形」とは?AI分析に適したデータ構造の原則

    データ分析を行う際、データを集めることは必須となりますが、データをどんなに大量に集めても、AIがその意味(構造、文脈)を理解できなければ、分析や推論はできません。

    そのため、集めたデータをAIが理解できるよう「正しい形」に整理する必要があります。

    この「正しい形」を理解するために、まず社内のデータを大きく「整理されたデータ」と「文書データ」の2種類に分けて考えましょう。なお、2つのデータはそれぞれ「構造化データ」と「非構造化データ」と呼ばれます。

    「整理されたデータ」(構造化データ)の設計

    「整理されたデータ」とは、Excelの表やデータベースのように、行と列で意味が明確に定義されているデータです。例えば、顧客リスト、販売実績、在庫数などがこれにあたります。

    これらのデータを、AIの計算と推論を助ける設計にするには、「売上データ」と「顧客データ」のように、関連する情報がバラバラにならないよう、共通のID(キー)で結びつけておくことが重要です。

    これによりAIは、「A社の最新の売上は?」という質問に対し、顧客情報と売上実績を正しく結びつけて分析できます。

    Difyにおいても、AIがこれらのデータにアクセスする際、定義されたデータ構造を基に、どの情報(列や行)が必要かを判断します。

    この設計が、AIの計算精度や判断の的確さに直接左右します。

    「文書データ」(非構造化データ)の整理と文脈化

    「文書データ」とは、形式が決まっていないテキストやファイルのことです。

    例えば、社内マニュアル、議事録、顧客からのメール本文、PDFのレポートなどがこれにあたります。

    文書データは、そのままではAIが効率的に参照できないため、意味の塊(セクション、パラグラフ)ごとに小さく分割し、それぞれの「文脈」を保った断片(チャンク)にします。

    そして、分割した各文書の断片に対して、「作成部署」「作成日」「対象製品」といったタグや付帯情報(メタデータ)を付け加えます。

    Difyにおいては、RAG機能に文書データを取り込む際、このメタデータを設定します。

    メタデータを設定しておけば、AIはタグや付帯情報を使って、文脈に合った情報だけを素早く見つけ出すことができるようになります。

    データ定義の一貫性

    AIが構造化データと非構造化データを正しく読み込めたとしても、その中のデータの定義がズレていると、AIの提示する答えも信頼性を失います。

    例えば、営業部門の「売上」と、経理部門の「売上」の定義が異なっていた場合、「今月の売上はいくらですか?」という質問にAIが答えても、その数字が何を意味するのか、利用者は混乱してしまいます。

    この問題を避けるために、全社で「真実の単一ソース」を確立する必要があります。

    具体的には、顧客名、製品コードなどの、会社で最も重要な情報をマスターデータとして一元的に管理し、全システムで共有する一意のIDを割り当てます。

    Difyにおいては、このマスターデータをiPaaSやワークフローツールを活用して、連携する各アプリケーションからDifyへデータを取り込む際の照合と変換のプロセスに組み込みます。

    これにより、AIが「顧客A」を参照した際、どのシステムから情報を取得しても、同じ実体を参照している状態を保証します。

    また、用語・単位の統一する必要があります。「見込み客」の定義、「月次」の締め日など、ビジネス上の主要な用語と単位を標準化し、全ての連携アプリケーションでその標準に従います。

    このように、AIを活用するには「AIが質問の意図を理解し、その質問に対する答えを導き出すために必要な文脈情報と関連性が明確な形でのデータ化」が必須です。

    Difyの機能を使ったデータ収集・連携アーキテクチャ

    データは、大きく分けて「整理されたデータ」(構造化データ)と「文書データ」(非構造化データ)の2種類があることをご理解いただけたと思います。

    では次に、Difyがこれらの異なる性質を持つデータを、どのように取り込み、分析を可能にするのかを解説します。

    非構造化データの取り込み

    社内のマニュアル、過去の議事録、顧客からのメール、製品仕様書といった非構造化データは、DifyのRAG機能を活用することで、AIが参照可能な「知識」として取り込みます。

    RAGとは、生成AIに外部の信情報源を読み込ませ、その情報に基づいて回答を生成させる技術のことです。

    これにより、AIがインターネット上の汎用的な知識ではなく、企業独自のノウハウに基づいた回答を生成することができます。

    まずは、社内のファイルサーバーやSharePoint、Google Driveなどから、PDF、DOCX、TXT、CSVといったドキュメントを収集し、Difyの知識検索ノードのナレッジセクションにアップロードします。

    この際、Difyが自動的にデータを処理し、チャンク分割を行います。

    チャンクが分割された後は、分析精度を高めるため、各ファイルやチャンクに対し、「部門」「プロジェクト名」「最終更新日」などのメタデータを付与します。

    そして、Difyがこれらのドキュメントをベクトル(数値データ)に変換し、ベクトルデータベースに格納します。

    この一連の流れにより、ユーザーが質問をすると、AIはその質問の意図をベクトル化し、ナレッジベースから最も関連性の高いドキュメントのチャンクを検索することで、その情報を基に回答を生成します。

    構造化データの連携

    一方、営業実績、顧客属性、在庫数など、リアルタイム性や計算精度が求められる整理されたデータ(構造化データ)は、前述のRAGのようにファイルを格納するのではなく、Function Calling(関数呼び出し)メカニズムを通じて、外部システムと連携します。

    Function Callingは、LLMが外部ツール(API)を使うための、ツール呼び出しメカニズムです。

    RAGがデータをDify内に格納するのに対し、Function Callingはセキュリティと柔軟性を考慮し、直接接続しません。

    間にAPIゲートウェイや軽量なAPIサーバーを挟み、CRMやERPなどのシステムに対し、データ参照や更新を実行するためのAPIを構築します。

    そして、このAPI仕様を、Difyの「ツール」として事前登録します。

    これにより、ユーザーが「今週のリード獲得数を部署ごとに集計して」と尋ねると、AIは登録されているツールの中から「リード獲得数を取得するAPI」を自律的に判断し、適切なパラメーターを指定してAPIを呼び出します。

    APIはデータベースからデータを取得し、その結果をAIに返します。

    このようにAPI呼び出しを行うことで、常に最新のデータを分析に利用できます。

    また、Difyにデータベースの接続情報を直接持たせず、API経由でアクセス権を制御できるため、セキュリティを確保できるというメリットもあります。

    このようにDifyは、RAG機能によるデータの参照と、Function CallingメカニズムによるAPI連携により、2つの異なるデータを連携させる機能を一つのプラットフォームで統合的に提供します。

    データフローの自動化とDifyへの接続

    非構造化データにせよ、構造化データにせよ、点在するデータはDifyに連携する前に、統合・変換する必要があります。

    この役割を担うのが、iPaaS(Integration Platform as a Service)などのワークフロー自動化ツールです。

    Zapier、Make、Power AutomateなどのiPaaSツールを活用することで、点在する複数のデータソースからデータを抽出し、第1章で定義した「正しい形」(マスターデータと紐づいたクリーンな構造)に変換します。

    そして、整理・統合されたデータを、構造化データの場合は連携用データベースに格納し、Difyの「ツール」から常にアクセスできるようにします。

    非構造化データの場合は、Difyのデータソースを集約するナレッジベースへ、新規・更新ドキュメントを自動でアップロードするように設定します。

    こうすることで、データの抽出から整理・統合、データベースへの格納といったデータフローを自動化することができます。

    実現可能なAI分析のユースケース例

    ここまでで、データを「正しい形」に設計する方法と、Difyによる連携アーキテクチャ構築の流れを見てきました。

    次は、構築した連携基盤を活用し、ビジネスの現場で実現可能な具体的なAI分析のユースケースをご紹介します。

    営業・マーケティング部門:パフォーマンスの分析と戦略策定

    営業・マーケティング部門では、リアルタイムな構造化データと、過去の戦略文書という性質の異なるデータを組み合わせて分析します。

    例えば、営業戦略の立案をサポートするために、ユーザーが「A製品のキャンペーン成功要因と実績の推移を分析して」とDifyに質問したとします。

    これに対しDifyは、まずツールを用いて最新の販売実績データベース(構造化データ)にアクセスし、A製品の売上推移を取得します。

    同時に、ナレッジベースから「キャンペーン計画書」や「営業マニュアル」(非構造化データ)を検索し、戦略文書を検索します。

    AIは、これらの定量的データと戦略文書を照合・推論し、「高い実績は、戦略文書にあったSNS限定プロモーションの実施時期と一致しており、特に若年層へのリーチが成功要因と見られます」といった具体的な示唆を返します。

    また、リードの優先順位付けとリスク評価も可能です。

    ユーザーが「B社が失注に至る可能性を評価し、次に打つべき具体的な施策を提案して」と質問すると、DifyはツールでCRMデータにアクセスしてB社の現状を取得し、ナレッジベースからは類似企業の過去の失注レポートを検索します。

    AIはB社の現状と過去の失注パターンを比較し、「この段階で〇〇資料の提供がない点は失注リスク大。過去事例より、次のアクションとして製品のROIをまとめた〇〇ドキュメントを提供すべきです」とリスク評価と具体的な施策を提案します。

    カスタマーサポート・製品開発部門:ナレッジ活用と問題特定

    この部門では、リアルタイムの顧客行動データと、過去に蓄積されたノウハウ文書を組み合わせ、顧客の真のニーズを把握し、製品改善に繋げます。

    例えば、トラブル解決支援の効率化を図るため、オペレーターが「特定の顧客Aが過去に問い合わせたC製品のトラブル事例と、その解決策を要約して」と質問したとします。

    これに対しDifyは、まずツールを用いてヘルプデスクのデータベースにアクセスし、顧客Aの問い合わせログ(構造化データ)を取得します。同時に、ナレッジベースからはC製品の関連マニュアルと技術者メモ(非構造化データ)を抽出します。

    AIはこれらの情報源を統合し、「顧客A様は過去2回、電源エラーについて問い合わせています。解決策はマニュアルSection 3に記載の通り、設定Aの変更と再起動です」といった、顧客個別の状況に基づいた簡潔な解決手順を提示します。

    また、潜在的な不具合の特定も可能です。

    ユーザーが「ヘルプページへのアクセスが急増した製品と、その直前のリリース変更の関連性を分析して」と分析を依頼すると、Difyはツールを通じてアクセスログデータべースのデータ(構造化データ)を取得し、アクセス急増製品を特定。同時にナレッジベースからは、その製品のリリース履歴や仕様書(非構造化データ)を検索します。

    AIはログの急増データとリリース日を時系列で結びつけ、「アクセス急増は〇月〇日に確認されました。これは、直前の〇月〇日にリリースされた『新機能X』に関するドキュメントが不十分であるため、ユーザーが混乱している可能性があります」といった、問題の仮説を提示します。

    管理部門:業務プロセスの可視化と最適化

    管理部門では、定量的なプロセス管理データと、その背景を記した定性的な文書を連携させ、組織のボトルネックを特定します。

    例えば、業務効率のボトルネック分析として、「先週最も遅延したタスクの担当者と理由を分析して」と指示したとします。

    これに対しDifyは、まずツールを用いてタスク管理SaaSのAPIにアクセスし、遅延したタスクのデータ(構造化データ)を特定。さらに、ナレッジベースからそのタスクに関する進捗報告書や日報(非構造化データ)を検索します。

    AIは遅延の定量データと、報告書内の「仕様変更による手戻りが発生した」といった定性的な記述を結合し、「最も遅延したタスクは〇〇氏担当のAタスクで、報告書から、主に部門間の連携不足が原因であったと分析されます」と、具体的なボトルネックとその背景を特定します。

    Difyを活用して社内に点在するデータをAIで分析してみた

    では実際に、Difyを活用して簡易的なワークフローを構築することで、データ統合と分析の理解を深めていきます。

    本章では、営業担当者の「リード確度評価と推奨アクションの提示」を自動化するワークフローをDifyで構築してみました。

    このフローの目的は、点在する構造化データと非構造化データをAIで統合することです。

    具体的には、ある顧客のIDを入力した後、属性情報取得し、知識検索、データ統合、確度評価、アクション生成という一連の流れが正しく機能するかを検証しました。

    ステップ1:構造化データの取得

    まず、AI分析のトリガーとなる情報(リードID)を入力し、必要なデータソースへのアクセスを開始するノードを構築します。

    本来であれば、DifyはCRMなどの既存システムへ接続し、その都度、業種や従業員規模といった最新のリード属性をリアルタイムで取得します。

    今回は、既存システムが存在しないため、あらかじめ設定したリード属性を次のプロセスへと受け渡す形にしました。

    これにより、ユーザーが入力欄に仮のリードID「L-2025-001」と入力すると、「業種:製造業」「従業員規模:450」「問い合わせ製品:データ分析ソリューション」という構造化データを取得します。

    Difyを活用して社内に点在するデータをAIで分析してみた
    「L-2025-001」という仮のIDを入れることで、「業種:製造業」「従業員規模:450」「問い合わせ製品:データ分析ソリューション」という構造化データが出力されている。

    ステップ 2: 非構造化データの取得

    構造化データを取得したら、次は過去事例やノウハウといった非構造データを同時に取得させます。

    活用するノードは知識検索ノードで、ナレッジベースという箇所に、反映させたい過去事例やノウハウをあらかじめ格納しておきます。こうすることで、AIは推論の根拠として格納されたデータを活用することができます。

    そして、ナレッジベースに事例レポートを格納する際には、「業種:製造業」「従業員規模:400名」といったタグや付帯情報(メタデータ)を付与します。

    Difyを活用して社内に点在するデータをAIで分析してみた
    アップロードしたレポートにメタデータを付与している

    これにより、AIが膨大な文書の中から「製造業かつ従業員規模が400名程度」に合致する事例を見つけ出すことができます。

    ステップ3:データ統合と分析準備

    ステップ2で、構造化データと非構造データという異なるデータを取得しました。

    ステップ3では、この異なるデータを、AIが分析しやすいように整形・統合します。

    そこで、LLMノードを活用し、プロンプトにて「構造化データと非構造化データを解釈し、次のステップのAIがすぐに推論に使えるよう、簡潔で論理的な一つのレポートとしてまとめよ。」と指示します。

    Difyを活用して社内に点在するデータをAIで分析してみた
    プロンプトの画面

    これによりAIは、両方の情報を解釈・結合し、次のステップのための一貫性のある文脈レポートとして整形・出力します。

    ステップ 4:コア推論の実行

    次は、ステップ3で出力された統合レポートを基に、ビジネスインテリジェンスの中核となる判断を下します。

    ここでもLLMノードを活用し、過去の成功・失敗パターンと照合した上で、客観的な「受注確度スコア」と「リスク要因」を判断し、JSON形式で出力してもらいます。

    システムプロンプトは以下の内容にしました。

    あなたは厳密なJSONパーサーです。入力されたレポートを読み込み、リード属性と過去の受注・失注パターンの関連性を厳密に比較せよ。特に、成功事例に一致する要素(例:部門決定、コスト削減ニーズ)と、失注事例に一致する要素(例:カスタム要求、短納期要求)を特定し、その度合いに基づき客観的な受注確度(0-100)を判断せよ。出力は必ずJSON形式とし、他の説明やテキストは一切出力してはならない。

    なお、JSON形式を強制している理由は、後続のノードや外部システムでの処理効率と正確性を保証するためです。

    例えば、AIが「確度スコアは75%です」という文章で回答した場合、後のノードは、この文章から「75」という数字だけを正確に抽出することが困難ですが、JSON形式であれば、正確に「75」という数値を取り出すことができます。

    また、次のステップである最終レポートの提示の際、インプットの形が崩れると後続の全てのノードが停止するため、厳格な構造を持つJSON形式を強制することで、安定性を確保しています。

    つまり、JSON形式での出力は、「AIの推論結果を、人間が読む文章ではなく、機械が正確に処理できるデータ形式に変換する」という目的のために行なっています。

    ステップ5:最終レポートの提示

    最後のステップでは、生成されたJSON形式のコア情報を、営業担当者がすぐに理解できる自然言語のレポートに変換し、提示させます。

    2つのLLMの出力を終了ノードに結合することで、確度とリスクを説明するレポートと、推奨アクションと資料を提示するレポートの2つのレポートを並列で生成してくれます。

    Difyを活用して社内に点在するデータをAIで分析してみた
    最終的に出力された確度とリスクを説明するレポートと、推奨アクションと資料を提示するレポート

    まとめ

    本記事では、社内に点在するデータをAIで分析し、実務に使えるBIとして活用するための具体的な方法を、Difyワークフローの構築を通じて解説しました。

    今回構築したワークフローの成功は、データが点在していても、データを整理してAPI(構造化)とRAG(非構造化)を活用することで、価値ある洞察を生み出せることを示しています。

    しかし、今回構築したものは簡易的なモックに過ぎません。

    さらには、顧客フィードバックや財務システムからのROIデータなど、新たな構造化・非構造化データソースを知識やツールとして追加したり、iPaaSツールによりリードがCRMに登録された瞬間にDifyワークフローが自動で起動する仕組みを構築したり、競合他社の分析やリソース配分の最適化など、より複雑な推論を組み込んだりすることで、AI分析基盤を拡張していくことが可能です。

  • カスタマーサポートの仕分けにAIを活用するメリットとは?Difyを活用したシステム構築ステップも紹介

    カスタマーサポートの仕分けにAIを活用するメリットとは?Difyを活用したシステム構築ステップも紹介

    顧客接点であるカスタマーサポート(CS)部門は、デジタル化の進展により顧客との接点が増え、問い合わせの量も増加し、その内容は複雑化しています。

    そのため、大量のメールや問い合わせフォームから送られてくるメッセージの中から、「システム障害」「重大なクレーム」「解約」といった緊急度の高いものや複雑なものを手作業で「仕分け」する作業が必要となります。

    しかしこの作業は、重要な問い合わせが大量の一般的な問い合わせの中に埋もれ、発見や上位報告が遅れるリスクを常に抱えており、オペレーターの工数増加と疲弊を招きます。

    また、手動の仕分けプロセスを経ることで、対応開始までの時間が長期化し、その結果顧客満足度の低下や離脱リスクが高まってしまいます。

    そこで本章ではAIに着目し、問い合わせの自動仕分けにAIを活用することでのメリットや、自動仕分けを実現するための流れ、ノーコード/ローコードプラットフォーム「Dify」を活用した自動仕分けシステム構築ステップなどを紹介します。

    AIによる問い合わせの自動仕分けの流れ

    ではまず、AIによる問い合わせの自動仕分け(以下、AI仕分け)がどのようなものなのかを理解するため、問い合わせ内容を分類していく流れをみていきます。

    1:受付と内容把握

    顧客から問い合わせメールやフォームが届くと、AIがそのテキストデータの全文を読み込みます。このプロセスに人の介在は不要です。

    2:意図の即時特定と優先度判断

    そしてAIは、キーワードの有無だけでなく、文章全体の文脈やトーンを解析します。

    例えば、「商品が届かない」という問い合わせに対しては発送部門へ、「操作方法がわからない」場合は製品サポート部門、「このままでは解約したい」という内容については解約阻止専門チームへというふうに分類していきます。

    このようにAIは、顧客の真の意図を特定するだけでなく、内容が「緊急トラブル」なのか「一般的な質問」なのかといった対応の緊急度を自動で決定します。

    3:通知や担当者への振り分け

    AIが判断を下した瞬間、問い合わせは人間によるチェックを待つことなく、コミュニケーションプラットフォームやメールなどの指定先に通知を行います。

    これにより、緊急度の高い問い合わせにすぐ気づくことができ、通知先を最もふさわしいチームや、その問題を解決できるスキルを持った担当者へ振り分けることで、より迅速な解決へと繋げることができます。

    AI仕分けを実現することでのメリット

    AI仕分けを実現することで、以下のようなメリットが期待できます。

    CX(顧客体験)の向上

    問い合わせをした顧客にとって、問題解決までの「速さ」は満足度に直結します。

    AI仕分けを導入することで、担当者に届くまでの初動時間短縮が見込まれ、顧客満足度の向上に寄与します。その結果、競合他社への離脱率の低下に貢献します。

    コスト削減と労働生産性の向上

    AIが仕分け作業を担うことで、手動仕分けにかかっていた人的工数を削減し、人件費を最適化します。

    さらに、オペレーターは単純作業から解放され、複雑な問題解決や、アップセル・クロスセルを狙う能動的な業務といった、付加価値の高い業務に集中できるようになります。

    これは、コスト削減だけでなく、収益向上にもつながる可能性があります。

    リスク回避と即時マネジメントの強化

    AIは、人間が見落としがちな重大なリスクを見逃しません。

    例えば、「システム停止」「情報漏洩」「重大なクレーム」といった、経営上のクリティカルな問い合わせを検知し、自動で適切なチームにアラートします。

    これにより、問題が社外に広がる前の初期段階で対応することができ、企業のブランドイメージ毀損や、将来的な損害賠償リスクを最小限に抑えることができます。

    「市場の声」をリアルタイムで経営に活かす

    AIが問い合わせを分類する過程で生まれるデータは、単なる記録ではなく、顧客が抱える課題を定量化した「市場の声」という貴重な経営資産となります。

    例えば、「〇〇という製品の機能Aについて、最も頻繁に問題が報告されている」といった製品開発へのフィードバックや、「どのサービスプランの顧客が、どのタイミングで『解約』や『不満』を口にしているか?」といった営業やマーケティング戦略に活用できるデータが蓄積されます。

    そして、こうしたAIが分類・分析したデータを、カスタマーサポート部門だけでなく、製品開発部門、営業部門、マーケティング部門と共有することで、データの戦略的な活用が可能となります。

    例えば、AIが抽出した「最も多い故障/不満」に基づいて、次の製品アップデートの優先順位を決定するといった製品開発に役立てることができるでしょう。

    また、AIが「解約予備軍」と特定した顧客に対し、問題が深刻化する前に先回りして担当者からアプローチしたり、問い合わせの質問内容から顧客が誤解している機能を特定し、Webサイトの表現や広告メッセージを修正することで、問い合わせの発生自体を減らしたりといった活用法が挙げられます。

    AIが「分類」と「支援」を両立する仕組み

    では次に、AI仕分けの仕組みをどのように実現するのかを解説します。

    まず、問い合わせの「正確な分類」と「緊急度の判定」は、機械学習モデルのサポートベクターマシン(SVM)やロジスティック回帰といったモデルが、過去の膨大な問い合わせデータから、請求や技術サポートなど、特定のカテゴリに属する統計的なパターンを学習します。これにより、非常に安定した精度で分類を実行します。

    しかし、こうした手法は、安定した高い精度を実現できる一方で、大量の教師データの準備や、専門的なエンジニアによる複雑なモデル構築・トレーニングが必要となります。

    そこで注目されているのが、生成AIのLLMを活用し、文脈理解能力を分類に利用する方法です。

    LLMは、感情分析モデルによりテキストのトーンを解析し、強い不満や緊急性を伴う表現を定量的に評価し、優先度の決定に役立てます。

    これにより、従来のモデルでは難しかった曖昧な表現や新しい種類の問い合わせに対しても、柔軟かつ適切なカテゴリ判断が期待できます。

    さらに生成AIは、長文のメールや過去履歴を読み込み、問題の要点と背景を要約し、担当者の状況把握を支援することも可能です。

    また、分類された意図に基づき、適切なトーンと情報を含むメールの草案を自動で生成させることで、オペレーターの対応速度の向上を支援します。

    Difyを活用した自動仕分けシステム構築ステップ

    では次に、実際に簡単なAI仕分けシステムを構築するステップを紹介します。

    本章では、生成AIアプリケーションを簡単に構築・運用するためのノーコード/ローコードプラットフォーム「Dify」を活用し、AI仕分けシステムを構築する方法を解説します。

    問い合わせの受付とカテゴリ分類(質問分類器ノード)

    ワークフローの最初のステップは、顧客からの生データをAIが理解できるように整形することです。

    そこで「開始」ノードでは、CRM(顧客管理システム)やメールサーバー、問い合わせフォームなどとAPI連携し、顧客が入力した問い合わせ本文や件名を取り込むことを想定し、「本文」「件名」「email」という3つの入力フィールドを用意しました。

    入力フィールドは、連携する既存システムに合わせて設定します。

    そして、開始ノードが顧客の本文を受け取ると、次の質問分類器ノードへと本文の内容を渡します。

    今回質問の分類は、「料金・請求」「技術サポート・故障」「返品・交換・解約」「その他・営業」という4つのクラスに分けました。

    質問分類器ノードのLLMは、開始ノードから送られてきた本文の内容が、4つのクラスのどれに当てはまるのかを分析し、いずれかに自動で振り分けます。

    Difyを活用した自動仕分けシステム構築ステップ
    開始ノードが受け取った本文内容を質問分離器ノードが受け取ることで、4つのクラスに分類している。

    緊急度評価と要約の生成(LLMノード)

    分類が完了した後、その情報をLLMノードに送り、優先順位の決定と、効率的な対応のための要約を生成します。

    以下のようなプロンプトを打つことで、LLMノードが分類結果と本文を基に、緊急度と要約の2つのデータを同時に生成してくれます。

    問い合わせ内容と分類カテゴリに基づき、以下のタスクを実行してください。

    1. 緊急度の評価: 問い合わせ本文から緊急度を判断し、HIGH, MEDIUM, LOW のいずれかで評価してください。

    2. 要約の生成: 問い合わせ本文を読み、対応者が状況を素早く把握できるよう、30字以内で簡潔に要約してください。

    # 入力:
    – 分類カテゴリ:  {{#1762928092331.class_name#}}
    – 問い合わせ内容:  {{#1762824757898.query#}}

    # 出力:
    – 分類カテゴリ:  
    – 要約: 
    – 緊急度: 

    Difyを活用した自動仕分けシステム構築ステップ
    緊急度評価と要約生成の設定画面

    優先度に基づいた振り分け(IF/ELSEノード)

    次に、LLMノードで決定された緊急度に基づいて処理経路を分岐させるため、IF/ELSEノードを活用します。

    これにより、近況度に応じた回答や通知を行うことができます。

    Difyを活用した自動仕分けシステム構築ステップ
    IF/ELSEノードにより、緊急度に基づいて処理経路を分岐させている。

    結果出力と外部通知(回答ノードとAPIノード)

    そして最終的に、結果出力と外部通知を行います。今回はPoCとして、すべての分岐先を「回答」ノードにつなぎ、結果を出力させました。

    回答ノードでは、「HIGH」「MEDIUM」「LOW」の各経路を通ってきた問い合わせに対して、冒頭に「緊急」や「要確認」といったメッセージを提示するように設定しました。

    試しに以下の3つの質問を入力したところ、内容に沿って優先順位を決め、それぞれの回答ノードにて適切に処理されました。

    • 「御社のAI技術は素晴らしい。ぜひ共同で新しいプロジェクトを立ち上げたい。窓口を紹介してほしい。」
    • 「先週アップデートした後に、システムの一部機能が頻繁にフリーズします。業務自体は進められますが、効率が非常に悪いです。修正方法を教えてください。」
    • 「昨日からサービスが完全にダウンしている。業務が止まっており、一刻も早く復旧してほしい。すぐに担当者から電話が欲しい。」
    Difyを活用した自動仕分けシステム構築ステップ
    3つの回答に対して、「HIGH」「MEDIUM」「LOW」に振り分け、要約を提示してくれている。

    なお、本番環境では、この最終ステップで実際の通知やタスク生成の設定を行うことができます。

    例えば、「HIGH」「MEDIUM」の問い合わせはGmailやSlackなどの外部サービスに即座に通知させ、「LOW」の問い合わせはCRMの通常のキューにタスクとして生成されるといった仕様にすることができます。

    まとめ

    このように「Dify」を活用することで、比較的低コストかつ簡易にAIを活用したシステムを構築することができました。

    緊急度の判断は想定していた通りに行ってくれ、要約も適切に行われており、一定の精度を確認できました。

    しかし、問い合わせ内容が長く複雑である場合が多いケースにおいては、プロンプトで細かな指定を加えたり、最終的には人が全文を確認するワークフローにしたりするなど、工夫が必要だと感じました。

    なお、「Dify」を活用した営業日報のチェックを自動化する方法も紹介しているので、気になる方は以下の記事も参照してください。

    関連記事:営業日報のチェックを生成AIで効率化するには?Difyを活用したワークフロー自動化の検証も紹介

  • 営業日報のチェックを生成AIで効率化するには?Difyを活用したワークフロー自動化の検証も紹介

    営業日報のチェックを生成AIで効率化するには?Difyを活用したワークフロー自動化の検証も紹介

    日報は本来、単なる記録ではなく、現場で得られた「生きた情報」であり、チームの知恵とリスクの予兆が詰まった価値あるデータです。

    しかし、案件数が増えるほど日報の量も増え、案件の進捗、リスク、メンバーの心理状態といった本質的な情報を抽出するのが難しくなります。

    そこで本記事では、文脈を踏まえた要約や分類が可能な生成AIに着目し、生成AIが日報を管理するマネージャーをどこまで支援できるのかを探ります。

    日報提出とチェックにおける課題

    まずは、これまでの日報提出とチェックにおける課題を整理します。

    通常、管理職のマネージャーは、メンバーから日々提出される日報のチェックをする必要があり、案件の数が増えるほど日報の量は膨大になります。

    マネージャーは、それらを確認し、案件の進捗やリスク、メンバーの心理状態といった「本質的な情報」を、多忙な業務の合間を縫って抽出する必要があります。

    日報を確認した後も、今度は「次に何をすべきか」という適切なネクストアクションを考え、メンバー一人ひとりに最適化された指示を出さなければなりません。

    この指示の質が、案件の成否を分けるにもかかわらず、経験や主観、その日の体調などに左右されてしまうのが現状です。

    また、マネージャーが形式的な確認しかできず、フィードバックが滞ってしまうと、報告の目的が「とりあえず提出すること」にすり替わってしまい、メンバーは本質的な情報よりも体裁を整えることに注力するようになります。

    この結果、日報の質は低下し、管理職は必要な情報をさらに見つけにくくなるという悪循環に陥ります。

    生成AIを核とする日報分析システムの理想構造と構成要素

    上述した課題を解決するには、テキストデータを分析することができる生成AIが有効な手段と言えます。

    その上で、生成AIを中核に据えた日報分析システムの「あるべき構造」を定義します。

    ここで言う日報分析システムとは、特定の製品を指すのではなく、データ収集から指示生成、そして学習のサイクルを実現するために設計された構造の全体像を指します。

    こうした理想的な日報分析システムは、以下の4つの主要な機能をシームレスに連携させます。

    データ連携・収集機能(インプット)

    メンバーが作成した日報のテキストデータを、システムに自動で取り込み、生成AIが解析しやすい形に整形する機能です。

    これは、システムが分析を始めるための起点となります。

    高度な分析・推論機能(AIの頭脳)

    テキストデータをインプットしたら、生成AIの技術基盤である大規模言語モデル(以下、LLM)が入力されたテキストを深く理解し、「案件のリスク」「進捗遅延」「メンバーの感情」といった要素を識別・数値化します。

    LLMは、テキストの分類、リスク抽出、スコアリングといった従来のAIが担ってきた機能を統合し、推論の「頭脳」として機能します。

    指示案の生成機能(アウトプット)

    生成AIが分析結果に基づき、具体的なネクストアクションとなる指示文を自動で生成します。この指示は、自然言語のアウトプットとしてマネージャーに提案されます。

    フィードバック学習機能(継続的な改善)

    最後に、生成AIの指示に従った結果、成功したか失敗したかを入力・追跡し、その結果をAIモデルの学習データとして継続的に取り込みます。

    この機能は、生成AIがより良い指示を学習し続けるための知識の更新を担い、システム全体の精度向上に直結します。

    なお、日報分析システムの中核となる分析と指示生成は、生成AIの能力だけでも構築が可能ですが、システムを真に実用的なものとするためには、既存のデータ基盤と連携するのが有効です。

    例えば、日報データの自動収集や案件の最終結果のフィードバックは、既存のSFAやCRMといったシステムと連携することで実現することができます。

    生成AIを活用するメリット

    次に、上述したような日報分析システムを構築する際、生成AIを中核に据えることのメリットを、分析の仕組みを理解することで深めていきます。

    テキストを分析する上でのメリット

    日報の分析や指示案生成おいての生成AIの強みは、従来の複雑なAIモデルを組み合わせることなく、単一のモデルで内容の理解から、具体的な指示案の生成に必要な分析までを実行できる点です。

    この強みを理解するため、上述した日報分析システムを、生成AIを活用せずに構築するとどうなるかを見ていきます。

    同等の機能を実現するには、一般的に、テキストを単語に分解・識別する「NLPモデル」、リスクの有無を判定する「分類モデル」、感情の度合いを測る「感情分析モデル」、そして指示文を生成する「テンプレートエンジン」など、複数のAIモデルやコンポーネントを開発・連携させる必要がありました。

    しかしLLMは、巨大なデータセットで学習済みのため、これらの機能を単一のモデル内で処理できるのが最大の特長です。

    また、LLMを活用したシステムでは自然言語処理することができるため、日報のテキストをそのまま入力することができます。

    LLMは、入力されたテキストデータから、価値ある情報や傾向を「採掘(テキストマイニング)」します。

    さらに、RAG(検索拡張生成)技術を活用することで、過去の成功・失敗データや企業独自のナレッジベースから重要な情報を抽出することができます。

    これは、LLMの学習済み知識だけでなく、最新の社内知見に基づいた分析を可能にします。

    進捗状況の自動判定とリスクスコアリングにおいても、「提案書提出」「予算NG」といった具体的なフェーズを示すキーワードを認識し、同時に「予算が厳しい」「担当者が消極的」といったリスクを示唆する記述を検出します。

    これらの記述やその文脈に基づき、案件の「リスク度」をマネージャー向けに数値で自動スコアリングし、介入が必要な案件を特定します。

    加えて、文章の裏側にある感情やトーン分析も行います。「なかなか返事が来ない」「検討が進まない」といったネガティブなトーンを認識することで、担当者のモチベーション低下や隠れた心理的課題を炙り出します。

    指示案を生成する上でのメリット

    さらにLLMは、分析後の具体的な「指示案」の自動生成も得意とします。

    LLMは、前の工程で抽出された「リスクスコア」「感情のトーン」「特定のネガティブサイン」といったインプットを受けとると、これらの課題を「スキル不足」「リソース不足」「顧客側リスク」といった具体的なカテゴリに自動で分類します。

    この問題点の特定と同時に、RAGを活用することで、企業のナレッジベースや過去に蓄積された膨大な成功・失敗事例のデータを参照することができます。

    例えば、現在の案件が「提案書提出後に音信不通になっている」という状況であれば、LLMは「過去に同様の停滞から受注に転換した案件」を探し出します。

    そして、その成功案件でマネージャーが「どのような介入」や「どのような指示」を出したかを学習し、現在の案件に対する最適な行動パターンを導き出して提案します。

    提案内容は、マネージャーが求める指示の基準をシステム構築時にあらかじめ定義することで、「誰に」「何を」「いつまでに」行うべきかを明確にした指示案を生成してくれます。

    例えば、案件の進捗が停滞していると判断した場合、「競合製品の優位性に関する具体的なエビデンス資料(URLを添付)を用意し、担当者ではなくキーパーソンに対して再提案するように指示。期限は明日午前中」といった提案を行なってくれます。

    また、若手メンバーの報告内容が薄いと判断された場合は、案件固有の課題解決に必要な社内ナレッジ動画を添付し、その後の理解度チェックを指示する、といったスキル向上を促す指示案も可能でしょう。

    このように、複数の処理を自然言語の指示で自動で行なってくれる点が、生成AIを活用するメリットです。

    生成AIを活用したシステムを使いこなすためのステップ

    生成AIによって作成された「指示案」は、極めて具体的で合理的ですが、最終的にそれを実行可能なアクションへとつなげ、メンバーに届ける役割はマネージャーが担います。

    このプロセスは、生成AIと人間が協調し、成果を最大化するための重要なステップです。

    ステップ1:生成AIによる指示案の微調整

    まず、生成AIの指示案をもとに、マネージャー独自の視点を加え、指示を最終的に微調整します。

    例えば、経験豊富なメンバーには、単なる指示ではなく「このリスクをどう乗り越えるか、あなた自身のアイデアを聞かせてほしい」といった「考えさせる質問形式」へとトーンを変更します。

    一方で、経験の浅い若手には、生成AIの指示をより具体的で実行しやすい「行動指示形式」へ調整します。

    また、複数の高リスク案件が重なった場合、チーム全体のリソースを考慮し、生成AIの指示にマネージャー自身の介入を追加したり、優先順位の入れ替えを決定したりします。

    マネージャーは、人間的な判断と戦略的な視点を加えた指示内容を最終的に承認し、次のステップへと連携します。

    ステップ2:現場メンバーへの「行動目標と理由」の伝達と実行

    最終的な指示は、単なるタスクとしてではなく、生成AIがなぜその行動を推奨しているのかという「理由」も明確に付与して現場メンバーに伝達することが重要です。

    これにより、メンバーは納得感を持って行動でき、指示されたアクションが単なる作業でなく、学習機会へと変わります。

    指示は、日報システムや連携されたチャットツールにタスクとして自動でプッシュ通知するのが有効でしょう。

    ステップ3:AIモデルの学習に寄与するフィードバック

    そして、メンバーが指示をもとにアクションを実行し、その結果をSFA/CRM上に「受注」または「失注」と入力すると、システムがその結果を自動で追跡し、AIモデルにフィードバックします。

    マネージャーは、生成AIが生成した指示や、それに伴うメンバーの行動に対して、「非常に良かった」「効果がなかった」といった簡単な評価やコメントをシステムに入力します。

    このフィードバック情報が学習データとして蓄積され、より効果的かつ組織の文化に合った指示文を生成できるように、知識が更新されます。

    Difyを活用したシステム構築のステップ

    次に、簡易的な日報分析システムを実際に構築する方法を紹介します。

    今回は、「Dify」という生成AIアプリケーションを簡単に構築・運用するためのノーコード/ローコードプラットフォームを活用しました。

    このシステムでは、提出された日報を分析し、ナレッジ検索やWeb検索が必要かを判断した上で、最適なネクストアクションの指示案を生成することを目指します。

    ステップ 1: データ収集とワークフローの起点設定

    ワークフローのシステムにおいて、データの収集と入力は最も重要な起点となります。

    実運用では、SFAやCRMシステムに新しい日報が登録されたことをトリガーに、ZapierやMakeといった連携ツールがその日報データを自動で取得し、Difyのワークフローに渡します。これにより、データ収集プロセスを自動化することができます。

    本記事では、生成AIの分析ロジックの検証を優先し、CRMとの連携は省略しています。そのため、ワークフローの「開始ノード」で、日報のテキストデータを外部ツールを経由せず、直接手動で入力できるように設定しています。

    開始ノードでは、日報のテキストデータを定義します。ここで定義した変数が、後続のすべてのノードで参照される分析の「元データ」となります。

    Difyを活用したシステム構築のステップ
    開始ノードの入力画面

    ステップ 2: 最初のLLMノードによる日報の「分析」と「判断」

    次に、ワークフローの核となる最初のAI処理ノードを設定し、日報の分析と、外部リサーチの要否といった次のステップの判断を同時に行わせます。

    ノードはLLMノードを選択し、必要となるAPI連携を行った後、GPT-4oなどモデルを選択します。

    そして、SYSTEMプロンプトにてLLMに「熟練のセールスコンサルタント」の役割を与え、分析の客観性と論理性を徹底させます。

    また、プロンプト内に、ステップ1で定義した日報の変数{{sales_report_text}}を組み込みます。これにより、AIが分析対象のテキストを正確に受け取ることができます。

    さらに、分析結果を次のステップで処理しやすくするため、AIに対して特定の出力フォーマットを指示します。

    具体的には、分析結果を「FACT(事実)」「ISSUE(課題)」のように項目立てて出力させると同時に、外部リサーチが必要か否かをSEARCH_REQUIREDにてYESかNOという形式で回答するよう強制します。

    Difyを活用したシステム構築のステップ
    LLMノードの設定画面

    ステップ3:条件ノードによるワークフローの分岐ロジック構築

    ステップ3では、ステップ2の分析結果に基づき、ワークフローの処理経路を自動で切り替える「判断機構」を構築します。

    この分岐ロジックにより、AIが「外部リサーチする必要があるか」を判断し、必要な時だけ適切な検索するという処理をしてもらいます。

    これにはIF/ELSE(条件ノード)を使用し、直前のLLMが強制出力したテキストをチェックします。具体的には、LLMの出力テキスト全体の中に、特定の文字列が含まれているかどうかを条件式として設定します。

    この条件の結果によって、ワークフローは二つの経路に分かれます。

    Difyを活用したシステム構築のステップ
    分岐ノードの設定画面

    TRUE(IF)の経路は、LLMが「リサーチが必要」と判断した場合です。この場合、処理は検索へと進み、過去の成功事例や社内資料の参照、Web検索が実行されます。

    FALSE(ELSE)の経路は、LLMが「リサーチは不要」と判断した場合です。この場合、処理は外部リサーチをスキップし、そのまま提案生成LLMノードへと進みます。

    この仕組みにより、AIは状況に応じて自動でリサーチするかどうかを決定し、より根拠に基づいた次の最適なアクションへと繋げてくれます。

    ステップ4:提案生成LLMノードによる最終指示案の生成

    最後は、LLMを活用した指示案を生成してもらうための設定です。ステップ3で分岐した両方の経路がこの最終ノードに集約されます。

    このノードでもGPT-4oなどのLLMを使用し、SYSTEMプロンプトで「一流のセールスコーチ」の役割を与えることで、最終的な指示案を生成してもらいます。

    提案フォーマットは、「最優先アクション」「提案の論拠」「コーチングの洞察」といった項目を厳格に守るよう指示することで、実行可能かつ質の高い指示案の出力が期待できます。

    Difyを活用したシステム構築のステップ
    左:仮の日報を入力している。 右:日報をもとに、指示案を提案してくれている。

    ステップ5: 最終出力とフィードバックの準備

    提案生成が完了したら、システムの外側へデータを出力します。

    ノードは終点ノードで、直前のLLMが生成した提案テキストを最終出力として設定します。

    なお、CRMやSFAといった外部システムとデータ連携を行う際は、この終点ノードの後に、Zapierなどを介して提案内容をCRMのタスク欄やSlackへ自動で書き込む連携処理を追加することになります。

    Difyを使ってみた感想

    ブロックの設定をしながら各ブロックを繋げていくというわかりやすいUIで、プログラミングができない筆者でも簡易的な日報分析システムを構築することができました。

    なお、今回紹介したDifyでの日報分析システムのワークフローや構築方法は一例であり、業種や業務プロセス、ユーザーのプログラミングスキルなどに応じてシステムを構築することができます。

    今後も、Difyに関する情報や、業務効率化や生産性向上に寄与する生成AIをはじめとするデジタル技術を紹介していきたいと思います。