AIをどこまで入れるか
——ドメイン別4層モデルで考える全社AI活用戦略
1分でわかるサマリ
- 「AIをどの業務にどこまで入れるか」は、多くの経営層が判断に悩んでいるテーマではないか
- McKinsey・BCG・Gartner・Forresterの最新レポートを見る限り、基幹系の完全代替を推奨するファームは見当たらない
- 業務ドメインを4層に分け、AI適用の考え方を整理する「4層アーキテクチャモデル」を提案
- 判断に迷ったときは「説明責任があるか」「監査対象か」「説明できるか」の3段階で考えてみるのが一つの手がかりになる
- 現時点では、基幹系は「置き換え」より「拡張」で考えるのが妥当ではないか
経営層が今、最も悩んでいるかもしれない問い
エージェントAI、MCP(Model Context Protocol)、Agentic Mesh——。2025年から2026年にかけて、AIとシステム連携に関する新しい概念が次々と登場しています。生成AIの「チャット」的な活用に慣れてきた企業が次に直面しているのは、おそらく「この技術を、会社のどの業務に、どこまで入れていいのか」という判断ではないでしょうか。
この問いが厄介なのは、答えがドメインによって変わるからです。カスタマーサービスや文書作成であれば、AIエージェントの効果は比較的見えやすい。一方で、会計処理や内部統制のように1円の誤差も許されない領域では、「AIの推論を挟んでもよいのか」という根本的な疑問が残ります。
多くのCIO/CTO/CDOの方は、こうした判断を求められながらも、判断材料が十分に整理されていないと感じているのではないでしょうか。本記事では、主要ファームの最新レポートを横断整理した上で、「どのドメインにどこまで入れるか」を考えるための一つの枠組みを提案してみたいと思います。
主要ファームはどう見ているか
まず、この領域に関する主要ファームの最新見解を確認します。各社のトーンに差はありますが、「基幹系をAIエージェントで全面的に置き換える」と主張しているところは、少なくとも現時点では見当たりません。
McKinsey——「拡張レイヤー」という位置づけ
McKinseyは2026年3月の「Rethinking Enterprise Architecture for the Agentic Era」で、「インクリメンタル統合(段階的導入)」と「包括的変革(全面刷新)」の2パスを提示しています。興味深いのは、同レポートがエージェントAIを既存システムの「代替」ではなく「拡張レイヤー」と位置づけている点です。数十年かけて蓄積されたビジネスルールやドメイン知識の置き換えはリスクが高く、むしろ強化する方向が合理的だと述べられています。
BCG——価値を出せている企業は5%
BCGの「The Widening AI Value Gap」(2025年9月、調査対象1,250社)によると、AIから実質的な価値を生み出せている企業はわずか5%で、60%はほぼ成果が出ていないとのことです。この格差の主因は技術力ではなく「組織の吸収能力」にあるとされており、エージェントAIについても「プラグアンドプレイではない」と明言されています。
Gartner——急拡大と新たなリスクの両面
Gartnerは、2026年末にエンタープライズアプリの40%がAIエージェントを組み込むと予測する一方で、2028年までにエンタープライズ侵害の25%がAIエージェントの悪用に起因する可能性があるとも指摘しています。活用とガバナンスの両立が求められるという見方です。
Forrester——ERPガバナンスの転換点
Forresterは、ERPベンダーの半数が自律的ガバナンスモジュールを立ち上げると予測しています。SAP、Microsoft、Oracleなどが、基幹系へのAI統合を前提としたガバナンスインフラに投資を進めているようです。また、従来の時点ベースの監査ではエージェントAIに対応しきれないとして、リアルタイムガバナンスの「AEGISフレームワーク」(エージェントAIの自律的行動を継続監視し、逸脱を即時検知する仕組み)を提唱しています。
「エージェントAIは既存基盤の拡張レイヤーである」「ガバナンスは設計時点から考える」「ドメインによってAI適用の深さは異なる」——この3点は、表現の差はあれ、各ファームにおおむね共通しているように見えます。同時に、エージェントAIの進化速度が速いため、「この境界線は今後変わり得る」という前提も共有されている印象です。
4層アーキテクチャモデル——一つの考え方
こうしたファームの見解を踏まえた上で、全社のAI活用判断を整理する枠組みとして「ドメイン別4層アーキテクチャモデル」を提案します。考え方はシンプルで、業務ドメインを「求められる確実性と説明可能性の水準」で分け、水準に応じてAIの関わり方を変える、というものです。
| 層 | 対象ドメイン | AI適用の考え方 | 活用イメージ |
|---|---|---|---|
| 第1層 Record of Truth |
会計・財務経理 内部統制 |
AIは補助・検知に限定。 コアの処理に推論を挟まない |
仕訳候補の自動提示→人間承認 異常値アラート 統制テストの自動チェック |
| 第2層 Operational Intelligence |
調達・購買 サプライチェーン 営業・CRM 人事・労務 |
AI推奨→人間/ルール判断。 閾値ベースで段階的に自律化 |
需要予測に基づく在庫補充提案 収益予測シミュレーション 定型発注の自動化 |
| 第3層 Interaction & Automation |
カスタマーサービス 文書・対外コミュニケーション |
AIが主導、人間はレビュー・例外対応 | 問い合わせの自動分類・回答生成 定型メールの自動作成 MCP連携でのシステム横断情報取得 |
| 基盤層 IT Infrastructure |
IT基盤・セキュリティ | 検知・初動はAI、判断は人間 | 脅威検知とインシデント初動 LLMセキュリティ診断 Shadow AI検知 |
第1層:Record of Truth——確実性が最優先の領域
会計や内部統制では、同じインプットから常に同じアウトプットが出ることが求められます。AIの非決定性(同じ入力から異なる出力が生まれる性質)は、この設計原則と相性がよくないと考えられます。したがってこの層では、AIはコアの処理の外側——入力補助や異常検知——に位置づけるのが現時点では妥当ではないでしょうか。
たとえば、請求書のOCRから仕訳候補を自動提示する、月次推移の逸脱を検知してアラートを出す、といった用途では、実用的な効果が見込めます。ポイントは、仕訳の確定や承認判断の最終責任は人間に残す設計です。Forresterが予測するERPベンダーのガバナンスモジュールも、「AIが提案し、統制が自動で効く」という思想に基づいていると読み取れます。
第2層:Operational Intelligence——最も効果が見込める領域
調達、サプライチェーン、営業、人事といった業務判断支援の領域は、AI活用の効果が大きく見込める層だと考えられます。この層の特徴は「正解に幅がある」こと。需要予測が多少ずれても致命的ではなく、パイプラインの確度予測も参考値として機能すれば十分です。
ここでは「閾値ベースの段階的自律化」が一つの有効な設計パターンになりそうです。たとえば調達なら、既知サプライヤーへの少額定型発注はAIエージェントに任せ、高額案件や新規取引は人間の承認を必須にする——といった段階設計です。営業領域では、過去の顧客特性(業種、規模、商談期間など)をもとに案件ごとの着地をシミュレーションし、楽観・基本・悲観シナリオとして提示する設計が考えられます。予測値を「確定数値」と混同させず、あくまで判断材料として活用するのがポイントです。
第3層:Interaction & Automation——エージェントが最もフィットする領域
カスタマーサービスや文書管理は、エージェントAIやMCPが最もフィットしやすい領域だと考えられます。McKinseyもCSをエージェントAIの初期成功領域として挙げています。問い合わせの自動分類から始めて段階的に自律度を上げていく設計は、比較的リスクを抑えやすいのではないでしょうか。
文書管理では、MCPを活用した複数システムからの情報取得と、それに基づく定型文書の自動生成が実用段階に入りつつあります。AI主導で処理し、人間はレビューと例外対応に集中する、という役割分担は現実的な選択肢になってきています。
基盤層:IT Infrastructure——守りの自動化
Gartnerは2029年までに70%の企業がインフラ運用にエージェントAIを導入すると予測しています。脅威検知やインシデント初動はAI自動化に適していますが、一方でForresterはエージェントAI自体が新たな攻撃面になるリスクも指摘しています。エージェントへの権限付与は最小限にとどめ、エージェント同士を監視する仕組み(Gartnerの「Guardian Agent」)を併設する考え方が広がりつつあるようです。
判断に迷ったときの考え方——3つの問い
4層モデルは大まかな判断の地図ですが、個別のプロセスで「ここにAIを入れていいのか」と迷う場面も出てきます。そのときに使える手がかりとして、3段階の問いかけを提案します。
まず、「そのプロセスに説明責任が求められるか」。社内の業務効率化や情報整理のように、結果の正確性よりもスピードや利便性が重視される領域であれば、AIの自律度を比較的高くしても問題は起きにくいと考えられます。メール下書きの自動生成や社内ナレッジの検索・要約などがこれにあたります。説明責任が軽い領域は、AI活用のハードルが低く、まず着手しやすい場所です。
次に、説明責任がある場合には、「そのプロセスは監査対象か」を確認します。J-SOXの統制対象や法定帳簿に直結するプロセスと、社内の管理会計や営業予測のように経営判断の参考に使われるプロセスでは、求められる厳密さが異なります。監査対象でない場合、AIの推論結果を「参考値」として活用する設計は十分に成り立つと考えられます。
そして、監査対象のプロセスであれば、「その処理結果を監査で問われたとき、なぜその出力になったか説明できるか」。ここが最も慎重な判断が必要なラインです。「AIが異常値を検知し、それを受けて人間が判断した」は説明可能ですが、「AIが自律的に仕訳を起票し、計上額が変動した」は、なぜその金額になったかを確定的に説明するのが難しい。監査対象プロセスでは、AIの関与を「候補提示」や「検知」にとどめ、最終判断は人間に残す設計が現時点では妥当だと考えます。
「置き換え」ではなく「拡張」で考える
本記事で提案したいのは、「基幹系を置き換える」のではなく「基幹系への入出力をAIがリッチにする」という設計の考え方です。McKinseyが多くの企業にインクリメンタル統合を推奨しているのも、おそらく同じ認識に基づいているのではないかと思います。
ただし、この「拡張」アプローチにもいくつかの留意点がありそうです。一つは、拡張を重ねることで生じるテクニカルデットの管理。エージェント同士をつなぐオーケストレーション層の設計は、早い段階から考えておく価値があります。もう一つは、ドメインごとの「自律度のグラデーション管理」。第1層と第3層ではAIの関わり方が異なるわけですから、全社一律ではなく、ドメインごとにAIの自律度を定義する仕組みが必要になると考えられます。
BCGの調査が示す「AIで価値を出せている企業は5%」という数字は、技術の問題というよりも、組織としての判断の枠組みが整っていないことに起因している可能性があります。ドメインごとの特性を踏まえ、段階的に拡張していくアプローチは、この5%に近づくための一つの道筋になるのではないでしょうか。
エージェントAIが基幹系を代替できる日が来る可能性を否定するつもりはありません。推論の確定性保証や監査証跡の標準化が進めば、境界線は変わり得ます。ただ、現時点では「どこまで入れるか」の判断を、ドメインごとの特性と制約に基づいて行い、拡張のスピードと統制のバランスを意識的に設計すること——これが最も妥当なアプローチではないかと考えています。
参考文献
- McKinsey「Rethinking enterprise architecture for the agentic era」(2026年3月)
- McKinsey「Seizing the agentic AI advantage」(2025年6月)
- McKinsey「The agentic organization」(2025年9月)
- QuantumBlack / McKinsey「Agents at Scale with Agentic AI Mesh」(2025年6月)
- BCG「The Widening AI Value Gap: Build for the Future 2025」(2025年9月、調査対象1,250社)
- BCG「From Potential to Profit: Closing the AI Impact Gap」(2025年)
- Gartner「40% of Enterprise Apps Will Feature AI Agents by 2026」(2025年8月)
- Gartner「Top Strategic Technology Trends for 2025: Agentic AI」(2025年)
- Gartner「Predicts 2026: AI Agents Will Reshape I&O」(2025年12月)
- Gartner「Top Predictions for IT Organizations 2025 and Beyond」(2024年10月)
- Forrester「Predictions 2026: Enterprise Software」(2025年11月)
- Forrester「Agentic AI Redefines Responsible AI」(2026年3月)
- Forrester「Predictions 2026: AI Moves From Hype To Hard Hat Work」(2025年10月)
- Forrester「AEGIS Framework — Agentic AI Security」(2025年)