エンタープライズAIの拡大には強固なセキュリティ基盤が不可欠であることが示される
※本リリースは、OpenText Corporationが2026年3月23日(北米時間)に発表したリリースの抄訳です。
 
OpenText(NASDAQ:OTEX、TSX:OTEX、日本法人:東京都千代田区、代表取締役社長:三浦デニース)は本日、Ponemon Instituteと共同で実施した新しいグローバルサーベイ「Managing Risks and Optimizing the Value of AI, GenAI & Agentic AI(AI、生成AI、およびエージェント型AIのリスク管理と価値の最適化)」の調査結果を発表しました。この調査によると、企業の半数以上(52%)が生成AIを全面的または部分的に導入しているものの、セキュリティとガバナンスへの対応は遅れていることが明らかになりました。
 
このギャップは、組織が生成型AIを急速に導入している一方で、多くの組織がそのリスクを管理するために必要なガバナンスとセキュリティの基盤を欠いたまま導入を進めているという、業界にとって深刻化する課題を浮き彫りにしています。
 
OpenTextのExecutive Vice President, Product and Engineering担当のMuhi Majzoubは次のように述べています。「AI導入の成熟度とは、単にAIツールを導入することではなく、責任を持って活用出来ているかどうかです。セキュリティとガバナンスは、AIから真の価値を引き出すための基盤となります。これらを最初からAIシステムに組み込むことで、組織はより透明性の高い運用が可能となり、システムを継続的に監視し、AIがもたらす結果を信頼できるようになります」
 
サイバーセキュリティ活動におけるAIの完全な導入とセキュリティリスクの評価ができている「AI成熟度」に達したと報告している企業は5社に1社に過ぎず、AIシステムのガバナンスにリスクベースの戦略を採用している企業は半数以下(43%)にとどまっています。AIシステムがより自律的になり、重要な業務に組み込まれるにつれて、この成熟度のギャップを埋めることは、信頼性、コンプライアンス、そして長期的なビジネス価値を確保するために不可欠となるでしょう。
 
サイバーセキュリティ活動においてAIを完全に導入し、セキュリティリスクを適切に評価できている「AI成熟度」に到達していると回答した企業は、全体の5社に1社に過ぎませんでした。また、AIシステムのガバナンスにリスクベースの戦略を採用している企業も半数以下の43%にとどまっています。AIシステムがより自律化し、重要な業務プロセスに組み込まれていく中で、この成熟度のギャップを解消することは、信頼性やコンプライアンスの確保、ひいては長期的なビジネス価値の創出に向けて不可欠となるでしょう。
 
AIのセキュリティとガバナンスは遅れをとっている
調査によると、AIの導入ペースと、それを効果的に管理・保護するために必要な対策との間には、大きな隔たりがあります。
サイバーセキュリティ分野において、システムの完全な導入とセキュリティリスクの評価が行われている「AI成熟」の段階にまだ達していない組織は、10社中8社近く(79%)に上る
AIに特化したデータプライバシーポリシーを策定している組織は、41%にとどまる
回答者の過半数(62%)は、言語モデル開発において、モデルやバイアスのリスク(倫理的かつ責任あるAI原則の違反など)を最小化することは難しいと述べている。
回答者の半数以下(43%)が、バイアス、セキュリティ上の脅威、倫理的問題といったAI関連のリスクに対処するリスクベースのAIガバナンスアプローチを採用している
回答者の58%が、プロンプトや入力に関するリスク(例えば、誤解を招く、不正確な、または有害な回答)を最小限に抑えることは非常に難しい、または極めて難しいと答えている。
回答者の半数以上(56%)が、意図しない誤情報の拡散など、ユーザーリスクの管理に課題を抱えていると報告している
回答者の約6割(59%)が、AIによってプライバシーとセキュリティに関する規制への準拠がより困難になると回答しているにもかかわらず、AIに特化したデータプライバシーポリシーを策定していると回答したのはわずか41%にとどまっている
 
AIは信頼性(Trust)と説明可能性(Explainability)がなければ成果を上げられず、人間の監視が必要となる
多くの組織が、セキュリティ運用を含む業務の効率化を図るためにAIを導入しています。しかし、信頼性(Trust)、確実性(Reliability)、説明可能性(Explainability)に関する課題が報告されていることから、セキュリティ強化を目的として設計されたツールそのものが、ガバナンスや成熟度の不足により、その有効性やAIの自律性を制限している可能性があることが示唆されています。
AIバイアスや信頼性のリスクが依然として残る中、AIの脅威検知能力には課題が残る
AIが異常や新たな脅威の検出にかかる時間を短縮するのに効果的だと答えている回答者は51%にとどまっている。半数未満(48%)しか、脅威の検出や、より深い洞察の獲得、手作業の負担軽減においてAIが効果的だと評価していない
AIモデルとバイアスのリスクが、その有効性を制限している。回答者の約3分の2(62%)が、不公平または差別的な出力を含むモデルとバイアスのリスクを最小限に抑えることは非常に困難、あるいは極めて困難だと回答
運用上の信頼性も課題となっており、回答者の45%がAIの意思決定ルールにおけるエラーを有効性を阻害する最大の要因として挙げ、40%はAIが取り込むデータ入力におけるエラーを報告している
完全自律型AI実現の道のりはまだ遠い
組織の半数未満(47%)が、自社のAIモデルは堅牢な規範を学習し、自律的に安全な判断を下せると回答しており、AIモデルの自律性が高まるにつれ、その信頼度は控えめなものとなっている
その結果、回答者の半数以上(51%)が、攻撃者が適応できるスピードの速さから、AIガバナンスには人間の監視が必要だと回答
Muhi Majzoubは次のように述べています。「AI導入の次の段階をリードするのは、あらかじめ透明性と管理機能を組み込んだAIを構築できる企業です。AIが日常業務に深く浸透していく中で、組織には、AIシステムの信頼性とコンプライアンスを維持するため、堅固な情報管理基盤に加え、明確なガバナンスの枠組み、ポリシーに基づく管理、そして継続的な監視体制が求められます。同様に重要なのは、イノベーションを責任ある形で拡大し、測定可能なビジネス価値を生み出すために、最初の段階からAIを適切なデータ、セキュリティ対策、そして十分な監督体制と整合させておくことです」
 
追加情報
OpenText調査:企業が生成AIを安全に運用するために必要なこととは?
https://blogs.opentext.com/ja/new-survey-findings-what-it-takes-for-enterprises-to-secure-and-scale-genai-jp/
 
調査方法
Ponemon Instituteは、北米、アジア太平洋、ヨーロッパ、中東、アフリカ、ラテンアメリカのITおよびITセキュリティ従事者1,878名を対象に、独自調査を実施しました。この調査では、金融サービス、ヘルスケア、テクノロジー、エネルギー、製造業など、規模や業種を問わず、様々な組織からの意見を収集しました。調査は2025年11月に実施されました。回答者には、ITセキュリティ、エンジニアリング、インフラストラクチャ、リスク管理およびコンプライアンス、その他AIとセキュリティ戦略に関わる職種の経営幹部、意思決定者、実務担当者が含まれています。
 
OpenTextについて
OpenText(TM) は、AIの時代に企業がデータを安全に管理し、正しく活用できるように支援する、情報管理ソリューションのグローバルリーダーです。私たちの技術は、データに意味や背景(コンテキスト)を加えることで価値ある情報へと変え、AI の学習に必要なナレッジベースを作り出します。詳しくは www.opentext.com をご覧ください。
 
【OpenText日本法人/オープンテキスト株式会社について】
OpenText日本法人/オープンテキスト株式会社は、情報やプロセスを管理・自動化するビジネスコンテンツ管理、企業間取引の情報を可視化しコントロールするB2B/EDI連携・サプライチェーン統合やFAXソリューション、Web&デジタルエクスペリエンス、データ保護やサイバーセキュリティ、フォレンジックツール、アプリケーション&オペレーション管理、AIを用いた各種の分析・可視化ツールなど、多種多様な業界・業種のお客様へ最適なソリューションを提供しています。https://www.opentext.com/ja-jp