Microsoft Copilot Studioの取得拡張生成 (RAG) は、言語モデルの推論機能と、信頼できる組織固有の知識を組み合わせたものです。 これにより、エージェントはモデルメモリに頼るのではなく、企業のコンテンツに基づいて正確で文脈に沿った、かつ根拠のある応答を生成できます。
この記事では、次の方法について説明します。
- RAGがどのようにAIの信頼性と地に足のついたものを高めているかを理解しましょう。
- Copilot Studio がナレッジを取得して合成する方法について説明します。
- サポートされている知識源とその制約を特定しましょう。
- ガバナンス、コンプライアンス、AIの安全性を考慮して認識しましょう。
- エンタープライズ環境でエージェントを設計する際にはRAGの概念を適用してください。
RAG の概要
RAGは、2つの機能を組み合わせることでAIの精度を向上させる設計パターンです。
- 情報検索:企業のデータソースの検索。
- テキスト生成:言語モデルを用いて取得した情報を統合する。
このアプローチは誤った情報を減らし、信頼を高め、実際の組織コンテンツに根ざした回答を生み出します。
Copilot Studio の RAG アーキテクチャ
Copilot Studio の RAG パイプラインは、Azure AI services上に構築され、Microsoft の信頼、コンプライアンス、セキュリティの境界と緊密に統合されています。
コアコンポーネント:
- Copilot Studio ランタイム: 会話型パイプラインを管理します
- クエリ最適化エンジン:クエリを書き直し解釈します
- 検索プロバイダー: Bing、SharePoint、Graph、Dataverse、Azure AI Search
- 要約エンジン:根拠のある引用された回答を生成します
- モデレーションレイヤー:メッセージや要約の検証
- 状態記憶:短期記憶(30日未満;訓練には使用されない)
- テレメトリーとフィードバックストア:洞察と監督を提供します
Copilot Studio での RAG のしくみ
Copilot Studio の RAG は、4 段階のプロセスに従います。
1. クエリの書き換え
Copilot Studio では、検索前にユーザーの質問が最適化されます。
- 意味の明確化
- コンテキスト信号を追加します(最後の10ターン)
- キーワードマッチングの改善
- 検索に適したクエリを生成する
このプロセスは検索の質を向上させ、無関係な結果を減らします。
2. コンテンツ検索
クエリを書き直した後、システムはあなたが設定したすべての知識ソースに対してクエリを実行します。 Copilot Studio は、各ソースから上位 3 つの結果を取得し、パフォーマンスとの関連性のバランスを取ります。 各知識ソースの挙動は、認証、インデックス作成、ファイル形式、ストレージ制約などの要因によって異なります。
以下の表は、サポートされるすべての知識ソースとその機能、制約、認証要件をまとめたものです。
| 知識源 | Description | Authentication | 主な能力、制限、制約 |
|---|---|---|---|
| 公開データ(ウェブサイト) | Bingがインデックスしたウェブサイト | None |
|
| SharePoint / OneDrive | 内部企業コンテンツ(内部のみ) | Microsoft Entra ID の委任認証 |
|
| アップロードされたファイル | Dataverseストレージにアップロードされたファイル | None |
|
| Dataverse テーブル | 構造化事業記録(内部のみ) | Microsoft Entra ID の委任認証 |
|
| グラフコネクター | Microsoft Graphにインデックスが作成されたエンタープライズ アプリ (内部のみ) | Microsoft Entra ID の委任認証 |
|
| リアルタイムコネクター | Salesforce、Zendesk、SQL(社内のみ)などのシステムからのライブデータ | ユーザーはログインが必要です |
|
| Azure AI Search | ベクトルベースの意味探索 | 設定済みエンドポイント |
|
| カスタムデータ | APIやフロー、カスタムロジックを通じて提供されるデータ | None |
|
3. 要約と応答生成
- AIが取得したコンテンツを統合します
- トーン、フォーマット、安全性、簡潔さに関するカスタム指示を適用します
- 基礎データへの引用を生成します
- ユーザーの文脈(言語、部門、地域など)を使って回答をパーソナライズします
4. 安全性およびガバナンスの検証
各応答は自動検証層を経ます:
- 有害、悪意のある、非準拠、または著作権のある回答のモデレーション
- グラウンディングの検証と誤情報の除去
顧客データが言語モデルを訓練しない。
RAGを使用する際の主な考慮点
RAGは事実に関する質問と回答に最も適しており、詳細な文書分析には適していません。
RAGは以下の用途に理想的です:
- 知識ベースからの質問への回答
- ポリシー、FAQ、手続き内容の要約
- ファイルや内部システムから特定の事実を取得する方法
RAGは以下を目的としていません:
- 完全な文書比較
- ポリシー遵守評価
- 長く非構造化文書を扱う複雑な推論
生成AIのセキュリティとコンプライアンスに関する考慮事項
Microsoft Copilot Studioの生成 AI 機能は、強力なセキュリティ、プライバシー、コンプライアンスの制御を維持しながら、強力な会話と推論の機能を提供するように設計されています。
基礎モデルとホスティング
- Copilot Studio は、OpenAI がトレーニングする基礎モデルに依存しています。
- Copilot Studio では、生成応答に最新の OpenAI モデルの 1 つを使用します。
- モデルは、Microsoft サービス信頼境界に沿って内部Azure AI Foundry サービス上で完全に実行されます。
- すべてのモデル使用は Microsoftの責任あるAIの原則 とポリシーに準拠しています。
カスタム手順
メイカーは カスタム指示 を提供し、モデルの挙動を形作ったり、トーンに影響を与えたり、フォーマットルールを追加したりできます。 これらの指示は、組織のニーズに合わせて生成応答をカスタマイズしつつ、安全フィルターやコンプライアンス管理を尊重する助けとなります。
データの保存と処理
- Copilot Studio の Data のストレージと処理は、ローカル モデルのホスティングが利用できない場合に、リージョンの境界を越えてデータを移動する可能性があります。
- このデータ移動が許可されていない場合、管理者は環境設定を使用して、Azure言語モデルや Bing Search などの特定の機能を無効にすることができます。
- Copilot Studio では、言語モデルのトレーニングに顧客データを収集したり使用したりすることはありません。
運用データ処理
- 運用中は、システムは一時的にMicrosoftが運営するセキュリティ管理のストアに会話を保存します。
- Microsoftの職員の権限取得は、Just-In-Time(JIT)制御を備えたSecure Access Workstations(SAW)によって制限されています。
- 組織はカスタマー ロックボックスを通じてアクセスをさらに制御でき、Microsoftのサポートエンジニアがデータを閲覧する前に明示的な承認が必要です。
テレメトリのトラブルシューティング
- 生成AI機能は追加のトラブルシューティングデータを生成しますが、それはテストペイン内のメーカー主導のアクション、特にメーカーが回答に対して親指を立てるか否定するかした場合に限られます。
- この明確なフィードバックループ以外に追加の顧客データは記録されません。
虐待監視と安全性
複数の安全層によって既に生成 AI 機能が保護されているため、Copilot Studio の生成型 AI では、Azure AI の不正使用の監視が無効にされ、顧客データのログ記録がさらに回避されます。