GitLabが紐解く:AI時代のソフトウェア開発

3年以内に訪れる⁠ソフトウェアの自律型AIの未来 —⁠—CISOが今すぐ備えるべき理由

生成AIと自律型AIエージェントの進化は、ソフトウェア開発とセキュリティを急速に変革しています。今回はGitLabが日本の経営層を対象に行った調査の結果に基づき、CISOが直面する「AI導入を妨げずにリスクを最小化する方法」という課題に焦点を当て、今すぐ取り組むべき実践的なステップを提案します。

急速に進化する生成AIと自律型AIエージェントは、すでにソフトウェア開発やセキュリティのあり方を根底から変えつつあります。企業が競争力を維持するには、AI活用を回避するのではなく、そのリスクを理解し、適切に管理する姿勢が不可欠です。

GitLabが日本のCISO(最高情報セキュリティ責任者)などの経営層を対象に行った調査をもとにしたレポートソフトウェアイノベーションによる経済効果では、回答者の85%が「今後3年以内に自律型AIがソフトウェア開発の業界標準になる」と認識していることが明らかになりました。また、回答者の85%が「自律型AIによって前例のないセキュリティ課題が生じる」と回答しました。この調査からは、CISOが「AI導入を阻害しないこと」「新たなセキュリティリスクを最小化すること」という、相反する2つの課題に直面している現状が浮き彫りになりました。さらに、日本の経営層の88%は、今後18か月以内にソフトウェア開発へのAI投資を拡大する意向を示しており、AIの進展がリスクを一層高めています。

自律型AIの導入を複雑にするAIガバナンスのギャップ

日本のセキュリティリーダーは、自律型AIの最大リスクとして「サイバーセキュリティ脅威(50%⁠⁠データのプライバシーとセキュリティ(48%⁠⁠ガバナンスの維持(45%⁠⁠」を挙げています。これらは互いに絡み合い、リスクの定義や状況も刻々と変化しています。

新たなリスクに対応するためには、AIガバナンス体制の確立が不可欠です。しかしAIはデータガバナンスからアクセス管理まで幅広い領域に関わるため、その実現は容易ではありません。それにもかかわらず、およそ半数の回答者が「自組織にはAI関連の規制に準拠したガバナンス(45%)や社内ポリシー(49%)が整っていない」と認めています。

AIガバナンスの遅れは業界全体に共通する課題が背景にあり、リーダーが時間と労力をどこに集中すべきか判断しにくくしています。さらに、自律型AIエージェントは予測不能な動作をする可能性があり、既存のセキュリティ境界を侵すことも実証されています。また、Model Context Protocol(MCP)やAgent2Agentといったユニバーサルプロトコルの導入により、相互運用性は高まる一方で、セキュリティの複雑さも増しています。

それでも、セキュリティリーダーはAIガバナンスの優先度を下げることはできません。包括的なベストプラクティスの登場を待つだけでは、変化に追いつけないでしょう。AIを完全に避けている組織であっても、ベンダーや従業員によるシャドーAI利用によってリスクにさらされる可能性があるのです。

ソフトウェアの自律型AIの未来に備え⁠CISOが今すぐ着手すべき3つのアクション

AIエージェントへの備えを始めるべき時期は既に来ています。CISOはまず、環境全体でAIエージェントの動作の追跡・監査・帰属を可能にする「AI可観測性」を確立することから着手できます。以下に、すぐに実行可能な3つのステップを紹介します。

AIエージェントの行動を属性付けするアイデンティティポリシーの確立
AIシステムの普及に伴い、非人間的アイデンティティの追跡と保護は、人間のユーザーアクセス管理と同様に重要になってきています。これを達成する1つの方法として、AIエージェントのアイデンティティと、それを指示する人間ユーザーのアイデンティティをリンクさせる複合アイデンティティの使用があります。AIエージェントがリソースにアクセスする際には、AIエージェントを認証・承認し、その行動を担当する人間ユーザーに明確に帰属させられます。
包括的なモニタリングフレームワークの採用
運用、開発、セキュリティチームは、複数のワークフロー、プロセス、システムにまたがるAIエージェントのアクティビティをモニタリングする手段が必要です。AIエージェントがコードベースで何をしているかを知るだけでは不十分です。ステージング環境と本番環境の両方、さらに関連するデータベースやアクセスするアプリケーションでのアクティビティもモニタリングする必要があります。
技術チームのスキルアップ
セキュリティ文化の醸成には、今やAIリテラシーが欠かせません。回答者の48%がAIスキルギャップの拡大を認めており、技術リーダーがモデルの動作やプロンプトエンジニアリング、入出力の評価方法を理解するために、チームのスキル向上を優先しなければ、このギャップはさらに拡大する可能性があります。

モデルが効果的に機能している領域と最適でない使用領域を把握することで、チームは不要なセキュリティリスクや技術的負債を回避できます。たとえば、アンチパターンで訓練されたモデルはそれらのパターンの検出には強い一方、未知のロジックバグに対しては十分に機能しません。

また、どのようなモデルも人間の専門知識に取って代わることはできないことを認識しておく必要があります。セキュリティエンジニアやデベロッパーが馴染みのない領域においてモデルの性能が落ちた場合、モデルが見落としたセキュリティギャップの特定は困難となります。

CISOは、学習および開発予算の一部を継続的な技術教育に充てることを検討する必要があります。これにより社内でAIセキュリティの専門知識が育まれ、新たに生まれるAIチャンピオンが同僚を教育し、ベストプラクティスを強化できるようになります。

AIリスクを理由にAIの有益な活用を妨げない

AIが適切に監視・利用される場合、経営層はセキュリティの向上を実感できます。事実、ソフトウェア開発においてAIが付加価値をもたらす分野として、回答者の39%がセキュリティを上位に挙げています。AIを人間の専門知識の代替ではなく補助として活用することで、日常のセキュリティタスクを自動化し、スマートなコーディング提案を行い、開発ワークフロー内で直接有益なセキュリティ情報を提供でき、開発チーム全体にセキュリティ知識を浸透させることが可能になります。たとえば、AIは脆弱性の説明を提供できるため、デベロッパーはセキュリティチームから同じ情報を待たずに、問題をより迅速に修正できます。こうした機能によってセキュリティ成果が向上し、リスクが軽減され、デベロッパーとセキュリティ担当者の間の協力関係が強化されます。

日本で成功する組織は、AIを避ける組織でも、無謀にAIを導入する組織でもありません。早い時期からAI戦略にセキュリティを組み込む企業こそが、成功を手にするでしょう。たとえ不完全であっても、基本的な統制を早期に確立することで、チームは状況の変化に素早く適応できるようになります。今回の調査対象となった経営層の見解が正しければ、3年間のカウントダウンはすでに始まっています。適切なAI活用事例へと導くリーダーは、リスクを最小限に抑えるだけでなく、競争優位性も確保できるでしょう。結局のところ、ソフトウェアのセキュリティは品質の中核を成す要素なのです。

おすすめ記事

記事・ニュース一覧