AI駆動型ガバナンスによるノーコード・シャドーITの自動検知とリスク管理

3000件の未承認ツールをどう捌く?AIが「情シスvs現場」の対立を解消したガバナンス変革の実録

約16分で読めます
文字サイズ:
3000件の未承認ツールをどう捌く?AIが「情シスvs現場」の対立を解消したガバナンス変革の実録
目次

はじめに:なぜ「禁止」するほどリスクは高まるのか

「また現場が勝手にSaaSを入れている……」

画面に映し出された未知のドメインへのアクセスログを見ながら、ため息をついた経験はないでしょうか。あるいは、セキュリティチェックシートの山に埋もれながら、「これではDXのスピードについていけない」と焦りを感じたことは?

長年の開発現場や業務システム設計の最前線において、情シス(情報システム部門)やCISO(最高情報セキュリティ責任者)が抱える悩みは共通しています。それは、「イノベーションの速度」と「統制(ガバナンス)」のジレンマです。

特に近年、NotionやAirtable、Zapierといった便利なノーコード・ローコードツールが普及し、現場部門だけで高度な業務アプリが作れるようになりました。これは素晴らしいことですが、同時に「情シスが感知しないIT資産(シャドーIT)」が爆発的に増えることを意味します。

従来のアプローチは明確でした。「許可されていないものは禁止する」。ファイアウォールでブロックし、CASB(Cloud Access Security Broker)で監視し、違反者には警告を送る。しかし、この警察のような振る舞いは、現場との対立を生み、結果として「隠れて使う」文化を助長してしまいます。皮肉なことに、厳しく取り締まるほど、リスクは地下に潜り、見えなくなってしまうのです。

今回ご紹介するのは、従業員数千名規模の製造業において、この悪循環を断ち切るために「AI駆動型ガバナンス」を導入したケースです。このケースではAIを使って3000件もの未承認ツールを検知しましたが、現場からの反発は起きませんでした。それどころか、情シスへの信頼回復に成功したのです。

なぜそんなことが可能だったのか? 鍵は、AIを「監視カメラ」としてではなく、「優秀な調停役(メディエーター)」として設計した点にあります。本稿では、実際の導入ケースを通じて、AI時代の新しいガバナンスの形を紐解いていきます。皆さんの組織では、新しいツールを導入する際、どのような壁にぶつかっていますか?ぜひ一緒に考えていきましょう。

1. プロジェクト背景:DX推進とセキュリティの板挟み

伝統的な製造業が直面するジレンマ

創業から長い歴史を持つ製造業の現場において、経営主導による強力なDX(デジタルトランスフォーメーション)推進は、もはや珍しい光景ではありません。「デジタルで現場を変える」という号令のもと、各事業部が競うように新しいツールの導入を進めるケースが増えています。

しかし、その裏で情報システム部門(情シス)は深刻な課題に直面しています。多くの情シス責任者が抱える悩みとして、以下のような状況が報告されています。

「毎月のようにSaaS利用申請が届く一方で、その倍以上のペースで申請なしの利用が始まっている実態があります。経費精算の明細を確認すると、管理外の海外クラウドサービスの利用料が散見されるケースも少なくありません」

「Excel職人」から「ノーコード職人」への変化

かつての日本企業には、複雑なマクロを組んだExcelファイルを操る「Excel職人」が各部署に存在しました。それが今、「ノーコード職人」へと進化を遂げています。彼らはkintoneで業務アプリを内製し、SlackとGoogleスプレッドシートをZapierのような自動化プラットフォームで連携させ、Notionでナレッジベースを構築します。

さらに2026年現在、これらのワークフローに最新のAI技術を組み込む動きが加速しています。特にChatGPTの最新モデルのような高度な推論能力を持つモデルや、GitHub Copilotのエージェント機能を活用するケースが顕著です。

現場のエンジニアや担当者も、ReplitやGitHub Copilot等のツールを駆使し、仮説を即座に形にして検証するアプローチを日常的に行っています。単なるメールの下書き作成や日報の要約にとどまらず、以下のような高度な活用が現場レベルで進んでいます:

  • 自律的な開発パートナーとしての利用: ChatGPTの最新モデル Thinkingモデルを用いて、複雑な業務ロジックの設計や検証を行う。
  • AI間の連携: GitHub Copilotでコードを生成し、その妥当性をChatGPTで検証するといったマルチモデルの活用。
  • 業務プロセスの自己開発: 現場の担当者がAIエージェントを用いて、自分たちの業務に必要なツールを自律的に構築する。

これらは業務効率化に直結するため、現場の上長も推奨する傾向にあります。情シスが「セキュリティ評価が終わるまで待機してほしい」と伝えても、「ビジネスのスピード感を損なう」という反発を招きかねないのが現状です。

従来型アンケート調査の限界

多くの企業では半年に一度程度、全社的な「IT利用状況アンケート」を実施してシャドーITの実態把握を試みます。しかし、この自己申告制のアプローチには構造的な限界があります。

  • 認知のズレ: 従業員自身が、日常的に使用している無料のPDF変換ツールや翻訳サイト、あるいは生成AIのブラウザ拡張機能を「管理すべきITツール」として認識していない。
  • 隠蔽: 「申請手続きが煩雑である」という理由や、利用を禁止されることを恐れて意図的に申告しない。
  • タイムラグ: 半年前の調査データは、AIツールが週単位で進化する現代のサイバー空間において、現状を反映していない可能性が高い。

アンケート結果で見えている範囲は「氷山の一角」に過ぎない可能性が高く、把握できていない領域にこそ、重大なセキュリティリスクが潜んでいるケースは珍しくありません。

2. 課題の深刻化:見えないAPI連携とデータ流出リスク

課題の深刻化:見えないAPI連携とデータ流出リスク - Section Image

発覚した顧客データの意図せぬ公開

外部のセキュリティリサーチャーからの通報で、企業の顧客データの一部がインターネット上で閲覧可能な状態になっていることが発覚するケースがあります。原因としてよくあるのが、現場の担当者が個人的に利用していたタスク管理ツール(ノーコードで構築されたもの)の公開設定ミスです。

担当者は「チーム内で共有したい」という善意で設定を変更したものの、それが「Web全体に公開」を意味することに気づいていないことが多いのです。幸い、実害が出る前に発見されることもありますが、これは典型的なヒヤリハット事例と言えます。

CASB導入だけでは防げなかった理由

すでにCASB(Cloud Access Security Broker)の一部機能を導入している企業でも、こうしたケースを検知できないことがあります。なぜでしょうか?

それは、API連携によるデータの動きだからです。

従来のCASBやファイアウォールは、社内ネットワークと外部クラウドとの通信(境界)を監視します。しかし、最近のSaaSエコシステムでは、クラウドとクラウドが直接APIで連携します。例えば、Salesforceから直接Slackへ、SlackからGoogle Driveへといったデータの流れです。これらは社内ネットワークを経由しないため、従来の境界防御では「見えない」のです。

情シスが「警察」として嫌われる構造

こうしたインシデントを受けて、経営層からは「管理体制の強化」が求められます。しかし、情シス担当者はここで深い悩みに直面します。

「これ以上、禁止リストを増やしたり、監視を強めたりすれば、現場との信頼関係は完全に崩壊する。そうなれば、シャドーITはさらに地下に潜り、今度こそ取り返しのつかない事故が起きる」

情シスが「警察」として取り締まるほど、現場は「犯人」となり、隠蔽工作に走る。この対立構造こそが最大のリスク要因です。必要なのは、取り締まりではなく、「現場の業務を止めずに、リスクだけを取り除く」新しいアプローチなのです。

3. 解決策の検討:なぜ「AI駆動型」を選んだのか

課題解決に向けて、多くの組織がいくつかのソリューションを比較検討します。そこで浮上するのが、AI(機械学習)を活用したSaaS管理プラットフォーム(SMP)およびSSPM(SaaS Security Posture Management)の導入です。

比較検討した3つのアプローチ

  1. 人海戦術(現状維持+強化):
    アンケート頻度を上げ、ログを目視確認する。コストは低いが、情シスの疲弊は限界を超え、リアルタイム性に欠けるため却下。

  2. 厳格なCASB制御(ブロック型):
    未許可サイトへのアクセスを全て遮断する。セキュリティ強度は高いが、業務停止のリスクと現場の反発が大きすぎるため却下。

  3. AI駆動型ガバナンス(検知・対話型):
    API連携を含む全SaaSの利用状況をAIで可視化し、リスクレベルを自動判定。ユーザーへの確認も自動化する。コストはかかるが、課題解決に最も近い。

AIガバナンスツール選定の決め手

AIガバナンスツールの導入において、現場が最も懸念するのは「AIの誤検知(False Positive)」です。「業務に必要なツールまで『危険』と判定され、アラートが鳴り止まない事態になりませんか?」という疑問は、多くの企業で共通して挙げられます。

これに対し、最新のAIツールの選定基準として以下の3点が重要になります。理論だけでなく「実際にどう動くか」を重視する観点から見ていきましょう。

  1. コンテキスト(文脈)理解:
    単に「データが外部に出た」だけでなく、「誰が(特権IDか)」「どの頻度で」「どの種別のデータを」扱っているかを学習し、異常値を判定できるか。
  2. SaaSカタログの網羅性:
    世の中にある数万のSaaSのリスク情報をデータベース化しており、未知のツールでも類似性からリスクスコアを算出できるか。
  3. ユーザーへの直接アクション機能:
    情シスを経由せず、SlackやTeamsを通じてAIボットが直接ユーザーに確認をとる機能があるか(これが「仲介役」としての機能です)。

誤検知(False Positive)への懸念と評価

PoC(概念実証)を実施すると、AIは初期段階でいくつかの誤検知を出すことが一般的です。例えば、マーケティング部が使う大容量ファイル転送サービスを「データ持ち出しの兆候」として検知するケースなどです。

しかし、これは「チューニングの機会」と捉えるべきです。AIに「特定の部署にとってはこの挙動が正常」と学習させることで、翌日からはアラートが出なくなります。ルールベースでは複雑すぎて設定できない例外処理も、AIならパターン学習で柔軟に対応できます。この「育てるガバナンス」が可能であることが、AI駆動型を選ぶ最大のメリットとなります。

4. 導入フェーズ:AIと人間が協調する運用設計

導入フェーズ:AIと人間の協調運用設計 - Section Image

ツールを入れて終わりではありません。むしろ、ここからの運用設計が成否を分けます。導入にあたっては、「最初の1ヶ月は何も禁止しないこと」が推奨されます。

導入初期の「学習期間」とベースライン設定

導入初月は「モニタリングモード」として運用するのが効果的です。AIに社内のトラフィックとAPI連携の現状を学習させ、正常な業務パターンのベースライン(基準値)を作らせるためです。

ある大規模な導入ケースでは、この期間に情シス画面へ驚くべき数字が表示されました。検知されたSaaSの数が、当初想定していた300件を遥かに超え、3000件に達していたのです。これには経営層も驚愕しますが、現場の担当者は「実態が見えただけで前進だ」と冷静に受け止めることが重要です。

アラート通知の自動化とトリアージ

膨大な件数全てに情シスが対応するのは不可能です。そこで、AIによるトリアージ(優先順位付け)が威力を発揮します。

  • High Risk: データ公開設定ミス、既知の脆弱性があるツールの利用、PII(個人情報)が含まれるデータのアップロード → 即時遮断&情シスへ緊急通知
  • Medium Risk: 認証基盤(SSO)未対応のツール、利用規約が不明瞭な海外ツール → ユーザーへ自動確認通知
  • Low Risk: 一般的な生産性ツール、個人のタスク管理など → 定期レポートのみ

この振り分けにより、情シスが即対応すべき件数は全体の5%程度に絞り込まれます。

現場へのコミュニケーション戦略

最も工夫すべきは、Medium Riskに対するAIボットからの通知メッセージです。

× 悪い例:
「警告:未承認のツール『PDF-Converter』の使用が検知されました。直ちに使用を中止してください。違反した場合は処分対象となります。」

効果的なメッセージの例:
「こんにちは!情シスAIアシスタントです。あなたが利用している『PDF-Converter』について確認させてください。このツールは業務利用ですか?もしそうなら、より安全な会社公認の『Adobe Acrobat』のライセンスをすぐに発行できますが、切り替えますか?(ボタン:[公認ツールを使う] [このまま使う理由を回答])」

このトーンの違いが決定的です。「監視・警告」ではなく、「安全確認・提案」というスタンスを取ることで、AIは現場の敵ではなく、「面倒なライセンス申請をショートカットしてくれる親切なアシスタント」として受け入れられるのです。

5. 成果と変革:3000件の可視化がもたらした安心

4. 導入フェーズ:AIと人間が協調する運用設計 - Section Image 3

導入から半年も経過すると、組織のガバナンス体制は劇的に変化します。

検知されたシャドーITの実態とリスク分類

前述のケースにおいて、可視化された3000件のツールのうち、約60%は実は「業務上無害だが不要」なものでした(一度だけ試して放置された無料トライアルなど)。約30%は「有用だが契約形態に問題あり」で、これらは法人プランへの切り替えが進められました。

そして残りの10%、約300件が「高リスク」な状態でした。これらには、退職者のアカウントが残ったままのSaaSや、APIキーが発行されたまま放置された連携設定が含まれていました。AIはこれらを特定し、90%以上を自動または半自動で是正することに成功しました。

情シスの工数削減(月間120時間→10時間)

かつて情シス部門は、ログの突合とアンケート集計、そして現場へのヒアリングに月間120時間以上を費やしているケースが珍しくありませんでした。それがAI導入後は、AIが作成したレポートの確認と、AIがエスカレーションしてきた高リスク案件の対応のみとなり、月間10時間程度まで激減したという実績があります。

空いた時間は、本来のDX推進業務――新しいAIツールの評価や、現場への活用提案――に充てられるようになります。

「隠れて使う」から「相談して使う」文化へ

定性的な成果として最も大きいのは、組織文化の変化です。

以前は情シスとの定例会が重苦しい雰囲気だった組織でも、導入後は現場から「今度こういうAIツールを使いたいんだけど、セキュリティチェックをAIでやっといてくれる?」といった前向きな相談が寄せられるようになります。

AIボットが一次対応をすることで、情シス担当者が直接「ダメだ」と言う場面が減り、人間同士の心理的な摩擦が解消されます。AIが「悪役」あるいは「事務局」の役割を肩代わりしてくれたおかげで、情シスは「パートナー」のポジションを取り戻すことができるのです。

6. 担当者の提言:AIを「味方」にするための要諦

最後に、AI駆動型ガバナンスを成功させるための重要なポイントをまとめます。

ツール任せにせず、ポリシーをAIに教え込む

AIは魔法の杖ではありません。ガバナンス変革に成功する組織は、「何をリスクとするか」というポリシー定義を明確に行い、それをシステムに組み込んでいます。

例えば、開発ツールの代表格である「GitHub Copilot」を例に挙げてみましょう。最新のGitHub Copilotは、OpenAIのモデルだけでなく、ClaudeやGeminiといった複数のAIモデルから最適なものを選択可能になり、さらには「Coding Agent」機能によってIssueから自律的にコード修正を行うレベルまで進化しています。開発効率は劇的に向上しますが、同時に「どのモデルをどの機密レベルのプロジェクトで使用するか」「自律エージェントにどこまでの権限を与えるか」といった新たな判断が必要になります。

「開発部がGitHubを使用するのは業務だが、経理部が大量のコードをアップロードするのは異常」といった組織固有の文脈までは、どれほど高度なAIでも自動では理解しません。ツールが多機能化し、選択肢が増えている今だからこそ、人間が「自社における正常と異常」を定義し、AIに教え込むプロセスが不可欠です。

100%の検知を目指さない勇気

セキュリティの世界では完璧を求めがちですが、シャドーIT対策において「検知率100%、誤検知0%」を目指すと運用は破綻します。先進的な組織では、「低リスクなツールはある程度許容し、定期的な棚卸しで対応する」という割り切りを見せています。

このリスク許容度の設定こそが、運用の持続性を担保します。すべてをブロックするのではなく、ビジネスのスピードを落とさない範囲でリスクをコントロールする姿勢が、AIを活用したガバナンス運用においても重要です。

これからの情シスに求められる「ガードレール」思考

これからの時代、特に重要となるのが「ガードレール型ガバナンス」です。

従来のガバナンスは「踏切」でした。許可が出るまで一時停止させ、安全確認をする。しかしこれでは、加速するDX(デジタルトランスフォーメーション)のスピードに対応できません。
これからは「ガードレール」です。コース(ポリシー)の内側であれば、どんなにスピードを出しても(どんな最新ツールを使っても)自由。ただし、コースアウトしそうになったら(危険な設定やデータ流出の兆候があれば)、AIというガードレールが自動で警告し、軌道修正を促す。

「まず動くものを作る」というプロトタイプ思考を組織全体に浸透させるためにも、この柔軟かつ強固なガードレールが不可欠です。情シス担当者の皆様、どうか「見えないIT」を恐れないでください。AIを味方につければ、それは恐れるべきカオスではなく、イノベーションの源泉として管理可能な資産になるはずです。


【編集部より】
KnowledgeFlowでは、シャドーIT対策だけでなく、AIを活用したセキュリティ運用の成功事例を多数掲載しています。自社の規模や業界に近い事例をお探しの方は、ぜひ以下のリンクから詳細をご覧ください。

>> 製造業・金融業などのAIガバナンス導入事例集を見る

>> 情シスのためのAIセキュリティツール比較ガイドをダウンロード

3000件の未承認ツールをどう捌く?AIが「情シスvs現場」の対立を解消したガバナンス変革の実録 - Conclusion Image

参考リンク

コメント

コメントは1週間で消えます
コメントを読み込み中...