コンテンツへスキップ

Exabeam Introduces First Connected System for AI Agent Behavior Analytics and AI Security Posture Insight — 続きを読む

エージェンティックAI:その仕組みと7つの実例

  • 11 minutes to read

目次

    エージェンティックAIとは何か?

    エージェンティックAIとは、自律性と意思決定能力を備えた人工知能システムを指します。これらのシステムは、データを解釈し、相互作用から学習し、人間の明示的な介入なしに意思決定や行動を促すことができます。

    エージェント型AIは、特定のタスクに焦点を絞った従来のAIや、テキストやメディアの生成に限定され、実世界の行動を実行できない既存の生成型AIシステムとは対照的である。エージェント型AIは、文脈や目的をより広く理解する。目標や入力に基づいて自己指示し、より適応的なインタラクション・フレームワークを提供し、ウェブベースのシステムとのインタラクションやロボットの操作など、実世界で行動を起こすことができる。(関連コンテンツ:エージェント型AIとジェネレーティブAIの違いを読む)

    エージェント型AIは動的に動作し、新しい情報に基づいて行動を調整し、従来のAIシステムでは不可能だったレベルの自律性で目的を達成します。その結果、複雑なプロセスの自動化を目指す業界の能力が向上します。

    これはAI技術に関する連載記事の一部です。

    エージェンティックAIの進化

    エージェントAIは、ルールベースのシステムや強化学習モデルから、大規模言語モデル(LLM)と外部環境を統合したより洗練されたアーキテクチャへと進化してきた。初期のAIシステムは、事前に定義されたルールや、人間が注釈を付けたデータを用いた大規模なトレーニングに大きく依存していたため、適応性に限界があった。対照的に、最新のエージェント型AIは、LLMの常識的な推論を活用することで、より柔軟に新しい状況に対応する。(関連コンテンツ:エージェント型AIツールガイドを読む)

    エージェンティックAIの開発は、単純なテキスト処理モデルから、より自律的な認知システムへと進展していきます:

    • テキスト処理モデル:自然言語処理(NLP)で使用されるような従来のLLMは、入力プロンプトに基づいてテキストを生成しますが、実世界でのインタラクション機能がありません。
    • 言語エージェント:これらのシステムは、LLMを外部環境と統合し、LLMが観察を処理し、決定を下し、行動を起こすことを可能にする。
    • 認知AIエージェント:最も高度な形態で、外部環境と相互作用するだけでなく、内部の推論プロセスも管理し、動的に計画し適応する能力を高めます。

    エージェント型AIは主に、デスクトップやモバイルのオペレーティングシステム、API、ウェブベースのアプリケーションなどのデジタルエコシステム内で動作する。これらの環境では、AIエージェントがウェブ検索、コード実行、他のソフトウェアとのインターフェイスなどのタスクを実行することができます。

    エージェンティックAIの次の段階は、AIエージェントが現実世界の物体や空間と相互作用する、デジタル環境から物理環境への移行です。この移行には、感覚統合、ロボット工学、リアルタイムの意思決定における進歩が必要となり、ダイナミックな物理的設定をナビゲートし、複雑な実世界タスクを実行できるAIシステムへの道が開かれます。

    詳しくは、エージェントAIアーキテクチャの詳細ガイドをご覧ください。

    エージェンティックAIはどのように機能するのか?

    エージェンティックAIは、データを解釈し、情報に基づいた意思決定を行い、タスクを実行し、時間をかけて能力を向上させる、構造化されたプロセスを通じて動作します。エヌビディアの提案エージェント型AIシステムのプロセスフレームワークを以下に示します:

    1. 知覚:AIは、センサー、データベース、デジタルインターフェースなど、さまざまなソースからデータを収集し、処理します。これには、意味のある情報を抽出し、パターンを認識し、環境内の重要なエンティティを特定することが含まれる。インプットを分析することで、システムは文脈的な理解を構築し、次のステップに情報を提供します。
    2. 理由:大規模言語モデル(LLM)はAIの推論エンジンとして機能し、意思決定をオーケストレーションし、タスクに特化したモデルを調整する。検索拡張世代(RAG)のような技術は、システムが独自のデータソースにアクセスできるようにすることで精度を向上させます。このステップにより、AIは複雑な問題に対して、関連性が高く、文脈を考慮した解決策を確実に生成します。
    3. Act:計画が策定されると、AIはアプリケーション・プログラミング・インターフェース(API)を通じて外部のツールやソフトウェアと統合することでタスクを実行します。内蔵されたガードレールがアクションを規制し、事前に定義されたルールへの準拠を保証します。例えば、AIを搭載したカスタマーサービス・エージェントは、設定された限度額までのクレームを処理する一方で、より価値の高いクレームにはフラグを立て、人間によるレビューを求めることができます。
    4. Learn:エージェント型AIは、"データ・フライホイール "として知られるフィードバック・ループを通じて継続的に改善されます。システムがユーザーと対話し、新しい情報を処理するにつれて、パフォーマンスを向上させるためにモデルを改良していく。この反復学習プロセスにより、AIは適応し、意思決定を最適化し、業務効率を高めることができます。

    エキスパートからのアドバイス

    Steve Moore

    スティーブ・ムーアは、Exabeamのバイスプレジデント兼チーフ・セキュリティ・ストラテジストで、脅威検知のためのソリューションの推進を支援し、セキュリティ・プログラムの推進や侵害対応について顧客にアドバイスを行っています。The New CISO Podcast」のホストであり、Forbes Tech CouncilのメンバーExabeamのTEN18の共同創設者でもあります。

    私の経験から、エージェント型AIをより効果的に活用・導入するためのヒントを紹介しよう:

    1. エージェントAIの推論をより透明にするために、解釈可能性フレームワークを導入する。SHAP(Shapley Additive Explanations)やLIME(Local Interpretable Model-agnostic Explanations)のようなツールを使用して、なぜ決定が下されるのかについての洞察を提供する。
    2. エージェント型AIと強化学習の組み合わせ:ほとんどのエージェント型AIシステムは教師あり学習に依存しているが、強化学習は動的環境における適応性を向上させることができる。報酬ベースのメカニズムを通じてAIを訓練することで、長期的な戦略的意思決定が強化される。
    3. エージェント型AIに対する敵対的テストの導入:AIを敵対的な入力やシミュレートされた攻撃にさらすことで、AIの回復力をテストする。これにより、意思決定ロジックの脆弱性を特定し、予期せぬ状況下でもAIのパフォーマンスがロバストであることを確認できる。
    4. より良い推論のためのドメイン固有のオントロジーの統合:一般的なAIモデルには深いドメインの専門知識がありません。構造化された知識ベースやオントロジー(例えば、ヘルスケアならSNOMED、金融ならFIBO)を組み込むことで、専門分野におけるAIの文脈推論が強化される。
    5. ヒューマン・イン・ザ・ループ(HITL)の監視を可能にする:高度に自律的なシステムであっても、人間が介入する仕組みが必要である。設定可能な閾値を導入し、リスクの高い意思決定に対してAIが一時停止し、人間の検証を要求する。

    エージェンティックAI vs. 生成AI

    エージェンティックAIと生成AIは、基礎となる機械学習技術を共有しているものの、その機能は異なります。ジェネレーティブAIは、入力プロンプトに基づいてテキスト、画像、その他のメディアを作成する、コンテンツ作成に重点を置いています。これは反応的に動作し、自律的な決定や独立した行動を取ることなく出力を生成します。サイバーセキュリティで使用される場合、SOCアナリストの反応的なアシスタントとなります。

    エージェンティックAIそれはコンテンツの生成にとどまらず、意思決定や自律的な実行にまで及びます。環境を認識し、複雑なシナリオを推論し、行動を起こし、フィードバックから学習します。OpenAI GPT-4oやAnthropic Claudeのような生成AIモデルは、学習されたパターンに基づいてテキストを作成しますが、エージェンティックAIシステムは意思決定のフレームワークを統合し、動的な環境の中で独立して動作することを可能にします。

    重要な違いは、生成AIの出力が一般的にユーザーの入力に対する静的な応答であるのに対し、エージェンティックAIは時間をかけて行動を適応させ、能動的に目的を追求することです。しかし、生成AIは、言語ベースまたは画像ベースの推論を提供し、行動を提案し、より大きな自律的プロセスの一部としてコンテンツを生成する、最新のエージェンティックAIシステム内の重要なコンポーネントです。サイバーセキュリティの分野で使用される場合、エージェンティックAIは、脅威の調査、検出結果の関連付け、リスクの優先順位付け、対応アクションの実行を自律的に行うことで、アナリストを支援する以上の役割を果たします。

    エージェンティックAIとAIエージェントの比較

    AIエージェントは、多くの場合、事前に定義されたルールに従って、自律的にタスクを実行するように設計されたソフトウェアプログラムです。例えば、チャットボット、レコメンデーションシステム、ロボティック・プロセス・オートメーション(RPA)ボットなどがあり、入力条件に基づいてタスクを実行するが、高度な推論や適応性はありません。例えば、サイバーセキュリティのAIエージェントは、静的なルールに基づいて不審なログインの試みに自動的にフラグを立てるかもしれませんが、脅威を分析して対応するには人間の介入が必要です。

    エージェンティックAIは新しい概念で、より高度な自律性と問題解決能力を発揮する、目的に応じて構築されたシステムを表します。エージェンティックAIは、単に固定されたルールに従うのではなく、文脈の理解に基づいて動的に行動を調整します。これにより、複雑な環境をナビゲートし、独立した意思決定を行い、相互作用から学習することができる。すべてのエージェンティックAIシステムはAIエージェントであるが、すべてのAIエージェントがエージェンティックAIとして認められるわけではありません。例えば、SOCのエージェント型AIは、アラートを調査し、複数のシステムにわたる脅威シグナルを相関させ、アクティブな攻撃の可能性を判断し、人間の介入を必要とせずにミティゲーション・アクションをプロアクティブに実行することができます。

    エージェンティックAIの実世界での応用

    1.ITサポートとサービス管理の自動化

    エージェンティックAIは、問題がエスカレートする前にプロアクティブに問題を特定し解決することで、ITサポートに変革をもたらします。事前に定義されたトラブルシューティング・スクリプトに従う従来のAIとは異なり、エージェンティックAIは、IT管理システムからのデータを分析し、過去のインシデントから学習し、自律的にアプローチを調整することで、新しい問題に動的に適応します。

    主な利点のひとつは、従業員が人間の介入を待つことなく即座にIT支援を受けられる自律型セルフサービスです。このようなAI主導のシステムは、パスワードのリセット、ソフトウェアのインストール、アクセスのプロビジョニングなどの日常的なタスクを処理する一方で、さまざまな企業システムと統合して、より複雑な技術的問題を診断・解決することもできます。

    さらに、エージェンティックAIは、対話から継続的に学習し、複数のソースからのリアルタイムデータを統合することで、問題解決を強化します。これにより、ITサポート・システムは潜在的な障害にプロアクティブに対処し、ダウンタイムを削減し、システム全体の信頼性を向上させることができます。一般的なITタスクと高度なITタスクの両方を自動化することで、企業は効率を改善し、ITチームをより戦略的なイニシアチブに集中させることができます。

    2.人事業務と従業員サポートの強化

    エージェンティックAIは、従業員にリアルタイムでパーソナライズされたサポートを提供しながら、日常的な管理プロセスを自動化することで、人事業務を改善しています。静的な回答を提供する従来のルールベースのAIとは異なり、エージェンティックAIは文脈を解釈し、従業員からの問い合わせを評価し、特定のニーズに基づいてカスタマイズされたソリューションを生成することができます。

    あるアプリケーションは、履歴書を自動的にスクリーニングし、優秀な候補者を特定し、面接の日程を決めることで、採用を合理化している。これにより、人事担当者の手作業を減らし、採用プロセスをスピードアップしています。Agentic AIはまた、人事関連の質問に答えたり、福利厚生に関する問い合わせをサポートしたり、入社手続きを支援したりすることで、従業員サポートを強化しています。

    さらに、AIを搭載した人事アシスタントは、社内のコミュニケーションツールと統合できるため、従業員は既存のワークフローの中で人事サポートにアクセスできます。管理業務を自動化し、対応力を向上させることで、組織は従業員体験を向上させ、人事チームは人員計画や人材開発などの戦略的優先事項に集中できるようになります。

    3.財務プロセスと意思決定の合理化

    金融分野では、大量のデータをリアルタイムで分析することで、エージェンティックAIが意思決定を最適化し、複雑なプロセスを自動化しています。これらのAI駆動型システムは、経費報告、コンプライアンス・チェック、不正検知、財務予測などのタスクを高い精度と効率で処理することができます。

    金融におけるエージェンティックAIの主な利点の一つは、パーソナライズされた財務管理を提供する能力です。AIシステムは顧客の財務履歴を分析し、支出パターンを検出し、財務の健全性を向上させるための行動を推奨することができます。これには、当座貸越手数料を防ぐための送金の自動化、金利に基づく貯蓄の最適化、財務の安定性に影響を及ぼす前の潜在的リスクの検出などが含まれます。

    エージェンティックAIは、手作業によるプロセスへの依存を減らし、データ主導の意思決定を改善することで、金融機関の業務効率の向上、コスト削減、企業と個人の両方に対するより良い財務的洞察の提供を支援します。

    サイバーセキュリティにおけるエージェンティックAIの使用例

    4.リアルタイム脅威検知とレスポンス

    エージェンティックAIは、リアルタイムで脅威を自律的に特定し緩和することで、サイバーセキュリティを向上させます。これらのシステムは、ネットワーク・トラフィックを継続的に監視し、ユーザーの行動を分析し、悪意のある活動を示す可能性のある異常を検出します。機械学習モデルを活用することで、エージェント型AIは通常のオペレーションと潜在的な脅威を区別することができます。

    脅威が検知されると、AIシステムは、侵害されたエンドポイントの隔離、悪意のあるIPアドレスのブロック、セキュリティチームへのアラートのトリガーなど、自動化された対応を開始します。事前に定義されたルールに依存する従来のセキュリティ・ツールとは異なり、エージェント型AIは動的に適応し、進化する攻撃パターンに基づいて脅威検出モデルを改良します。

    5.適応型脅威ハンティング

    エージェンティックAIは、組織のシステム内の脅威を自律的に探索することで、プロアクティブなサイバーセキュリティ戦略の改善を促進します。こうしたAIシステムは、シグネチャ・ベースの検知手法だけに頼るのではなく、膨大な量のセキュリティ・データを分析し、隠れたパターンや侵害の指標を探します。

    新しい攻撃手法から継続的に学習することで、エージェンティックAIは、従来の防御を回避する可能性のある新たな脅威を発見する能力に磨きをかける。AI主導の脅威ハンティング・プロセスでは、ログ、エンドポイント・アクティビティ、ネットワーク・トラフィックなど、複数のソースからのデータを関連付け、潜在的な攻撃ベクトルを特定します。

    6.攻撃的セキュリティ・テスト

    エージェンティックAIは、サイバー攻撃を自律的にシミュレートして組織の防御をテストすることで、攻撃型セキュリティに革命をもたらすことができます。このようなAI主導の侵入テスト・システムは、現実世界の攻撃シナリオを模倣し、ネットワーク、アプリケーション、クラウド環境の脆弱性を特定します。セキュリティ対策を継続的に評価することで、組織は弱点を早期に発見することができます。

    人間の専門知識と定期的な評価を必要とする従来の侵入テストとは異なり、エージェンティックAIは継続的なセキュリティ・テストを可能にする。AIは、進化するセキュリティ・ランドスケープに基づいて攻撃戦略を適応させます。AIシステムは、セキュリティ・ギャップに関する詳細なレポートを作成し、修正戦略を推奨し、実装された修正の有効性を検証することができます。

    7.ケース管理

    エージェンティックAIは、セキュリティ・インシデントの分類、追跡、解決を自動化することで、サイバーセキュリティ・ケース管理を簡素化することができます。脅威が検出されると、AIシステムは関連する詳細をログに記録し、重大性に基づいてインシデントを分類し、適切なセキュリティ・チーム・メンバーに割り当てます。

    過去の事例を分析することで、エージェンティックAIは最適な対応戦略を推奨することができます。これらのAI駆動型ケース管理システムは、セキュリティ情報・イベント管理(SIEM)プラットフォームやその他のツールと統合することで、コラボレーションも向上させます。また、インシデントの進捗状況の最新情報を提供し、レポートを自動化し、コンプライアンス要件が満たされていることを確認します。

    エージェンティックAIの実装における課題とリスク

    エージェンティックAIは、特に説明責任、データプライバシー、自律的な意思決定に過度に依存するリスクに関して、いくつかの課題を提示しています。これらの懸念には、AIシステムが倫理基準や組織の目的に合致していることを保証するためのガバナンスの枠組みが必要です:

    • 自律的意思決定における説明責任:エージェント型AIの大きな課題は、システムが独立して動作する場合の説明責任を決定することです。あらかじめ定義されたルールに従う従来のAIとは異なり、エージェント型AIは動的に意思決定を行い、時には意図しない結果を招くこともある。このため、AI開発者、導入組織、あるいはその他の関係者のいずれに責任が及ぶのか、責任に関する懸念が生じます。
    • データプライバシーとセキュリティリスク:エージェンティックAIは、しばしば機密情報を含む膨大なデータセットに依存している。強力なデータガバナンスがなければ、不正アクセスやデータの悪用、不透明な意思決定のリスクがある。透明性を確保し、ユーザーデータを保護するためには、GDPRやCCPAなどの規制を遵守することが不可欠です。
    • 自律型システムへの過度な依存:エージェンティックAIへの過度な依存は、重要な意思決定における人間の監視機能の低下を招きかねません。AIはデータ処理やワークフローの最適化には優れているが、複雑で重大な意思決定に必要な微妙な判断力に欠ける可能性があります。これは特に、医療、金融、法律など、倫理的配慮が必要な分野で懸念されます。
    • 倫理的ガバナンスと透明性:責任あるAIの導入を確実にするために、組織はAIの役割、意思決定の境界、透明性への期待を定義する倫理的ガバナンスの枠組みを確立しなければなりません。これには、AIロジックの明確な文書化、意思決定の監査証跡、AI主導の成果を争う仕組みなどが含まれます。

    エージェンティックAIソリューションのカスタマイズと統合

    エージェンティックAIの導入を成功させるには、慎重にカスタマイズし、既存のビジネス・インフラに統合する必要があります。これには、AIシステムを組織の目的に合わせ、データパイプラインを最適化することが含まれます。

    カスタマイズに関する主な考慮事項

    効果を最大化するために、組織はエージェンティックAIをニーズに合わせなければなりません:

    • 知識基盤:AIシステムは、意思決定を改善するために、ドメイン固有の専門知識とビジネス・プロセスについてトレーニングされるべきです。これにより、AIのアウトプットが組織の戦略や業界の要件に合致するようになります。
    • インフラストラクチャの最適化:AIと企業のデータベース、API、デジタルワークフローを統合することで、効率が向上します。適切に構造化されたデータ・アーキテクチャは、AIの円滑な運用を保証し、統合の課題を最小限に抑えます。
    • 人間とAIの協働:明確な役割分担と監督メカニズムを確立することが不可欠です。エージェント型AIは自律的に動作するが、意思決定を検証し、説明責任を維持するためには人間の監督が必要です。

    導入のベストプラクティス

    ロールアウトを成功させるために、組織は構造的なアプローチをとるべきです:

    • 段階的展開:規模を拡大する前に、管理された環境でAIの能力をテストするパイロット・プロジェクトから始める。
    • 継続的な監視: AIの決定をリアルタイムで追跡し、透明性を確保し、エラーを防止します。
    • セキュリティ対策:AIシステムをサイバー脅威やデータ侵害から守るために、階層的なセキュリティフレームワークを導入します。
    • 専門家との連携:AIやサイバーセキュリティの専門家と連携し、統合戦略を洗練させ、ベストプラクティスを維持します。
    • AIの境界の定義:人間とAIの責任の明確な区別を確立し、管理と説明責任を維持します。

    エージェンティックAIは、効率と意思決定を改善するためのツールとして急速に進歩しているが、その成功は戦略的な導入と継続的な監視にかかっています。AIによる自動化と人間の専門知識を組み合わせることで、組織は責任ある倫理的な使用を確保しながら、エージェント型AIの恩恵を受けることができます。

    セキュリティのためのエージェンティックAI

    エージェンティックAIは、受動的な検知からプロアクティブな防御へとシフトすることで、AI駆動型システムが脅威を調査し、データを相関させ、自律的に対応アクションを実行することを可能にし、セキュリティ運用を再定義しています。サイバー脅威が進化し続ける中、セキュリティチームは、静的なAIアシスタントを超えて、リアルタイムで適応性のあるインテリジェンスを提供するソリューションを必要としています。

    Exabeam Novaはこのような要求に対応するために開発され、SOCの戦力として機能します。調査を自動化し、アラートの疲労を軽減し、応答時間を短縮することで、アナリストがより効率的かつ効果的に活動できるようにします。New-Scale Security Operations Platform Exabeam へのシームレスな統合により、 Nova は別個のツールの必要性を排除し、AI主導の洞察が既存のセキュリティ・ワークフローに直接組み込まれることを保証します。

    従来のAIアシスタントとは異なり、Exabeam Novaは、各脅威の深刻度とコンテキストに基づいて調査アプローチを動的に調整します。第一線のアナリストとセキュリティ・リーダーの双方に合わせた正確で実用的な洞察を提供し、すべての関係者が情報に基づいた意思決定を行うために必要なインテリジェンスを確保します。

    Exabeam Nova は、Threat Center内に、主要な脅威インジケータ、関連する検出結果、推奨されるアクションをまとめたリッチなケース・サマリー・ノートを作成し、アナリストが断片的なデータをつなぎ合わせるのに費やす時間を短縮します。Exabeam 独自の脅威分類フレームワークに基づいて構築され、従来の10倍の学習データを活用することで、より深い調査知識とより正確な脅威の優先順位付けを実現します。

    エージェンティックAI:その仕組みと7つの実例
    図1:Exabeam Novaこのケース・サマリーは、ある事件についてのものです。Threat Center

    セキュリティとコンプライアンスはExabeam Novaの中核です。外部のクラウド・トレーニングに依存する他のAIソリューションとは異なり、Exabeam Novaは、顧客データのプライバシーと安全性を確保します。モデル・トレーニングに捜査情報が使用されることはなく、すべてのデータは信頼できるエクサビーム環境内で処理されるため、業界規制を遵守し、機密情報を保護することができます。

    調査を超えて:Exabeam Nova Outcomes Navigator は、ユースケースの適用範囲の評価、ギャップの特定、防御強化のための的を絞った推奨事項の提供を支援し、セキュリティ態勢の評価を強化します。ログソース、行動モデル、ルールの利用状況を分析することで、企業はセキュリティ戦略を継続的に改善し、最適化することができます。

    エージェンティックAI:その仕組みと7つの実例
    図2:Exabeam Nova-Outcomes Navigator 内で生成されるセキュリティ態勢の洞察

    AIによるサイバー脅威が高度化する中、企業はもはや時代遅れのセキュリティモデルに頼る余裕はありません。Exabeam Novaは、AIを活用したプロアクティブなセキュリティ戦略により、チームが脅威を迅速に検知し、より高い信頼性を持って対応し、セキュリティ体制を継続的に強化することを可能にします。セキュリティ運用の未来がここにあり、Exabeam Novaがそれを実現します。詳細はExabeam.comをご覧ください。

    Exabeamについてもっと知る

    ホワイトペーパー、ポッドキャスト、ウェビナーなどのリソースで、Exabeamについて学び、情報セキュリティに関する知識を深めてください。