※本ブログは米国時間2025年1月30日に公開されたA10本社ブログの日本語訳です。原文はこちらからご覧ください。
AIと大規模言語モデル(LLM推論)を構築し、それを自社環境に統合することは、多くの組織にとって大きな取り組みであり、クラウドへの移行以来、最も重要な取り組みとも言えます。そのため、途中で下すべき決定、克服すべき課題、回避すべき落とし穴を十分に理解した上で、取り組みを始めることが重要です。
以前のブログでは、エンタープライズ向けAIの導入モデルとして考えられるオンプレミス、クラウド、ハイブリッドの各モデルと、組織に適した選択方法について説明しました。このシリーズでは、導入時に直面する主な課題と、それが導入モデルごとにどのように異なるかに焦点を当てていきます。このブログを読み終える頃には、どの導入モデルが最も適しているかについて、検討を開始できるようになるでしょう。
- インフラのコストと拡張性
- 遅延とパフォーマンス
- データのセキュリティとプライバシー
- 企業コンプライアンス
- モデルの管理と既存システムとの統合
インフラのコストと拡張性
課題: AIおよび大規模言語モデル(LLM推論)には、GPU/TPU、メモリ、ストレージなどの重要な計算リソースに加え、膨大な電力が必要です。非常に大規模なデプロイメントに必要な電力は前例のないものであり、企業はこれらの環境を管理するためにAIの専門スキルを持つ人材を採用する必要があります。
オンプレミス: 企業はコンピューティングリソースに多額の投資を行い、既存の電力および冷却インフラをアップグレードして、新しい要件を満たすための拡張性を確保する必要があります。これには、多額の初期費用と過剰支出のリスクが伴います。
クラウド: クラウドプラットフォームはAIに対応した環境を提供するため、企業側は多額の初期費用を負担する必要がありません。ただし、スケールアップまたはスケールダウンしながらコストを管理することは、特にワークロードが最適化されていない場合、困難で予測不可能な場合があります。さらに、データの入出力コストも発生します。クラウドネイティブソリューションによっては、ベンダロックインを意味することもあります。
ハイブリッド: ハイブリッドアプローチは、コストを最適化し、ベンダロックインを回避できるため、ほとんどの企業にとって理にかなっています。ただし、ハイブリッド環境では、シームレスでボトルネックが発生しないように、顧客はオーケストレーションに注意する必要があります。
遅延とパフォーマンス
課題: チャットボットや推奨システムなどのリアルタイム アプリケーションでは、エッジ処理とデータの効率的なルーティングが必要となります。データ検査はセキュリティにとって重要ですが、遅延やパフォーマンスの低下を招くことがあってはなりません。
オンプレミス: オンプレミスでのデプロイメントでは、インフラがエンドユーザの近くにあると低遅延を実現できますが、高いパフォーマンスも実現するには、ハードウェアとソフトウェアを最適化する必要があります。
クラウド: クラウドの導入では、データがリモートサーバとの間でやり取りされるため、遅延の問題に直面することがよくあります。さらに、急速に高まるAI需要への対応に苦慮しているクラウドプロバイダは、スループットのために遅延を犠牲にすることがよくあります。企業は、エンドユーザの近い場所に展開するために、マルチリージョンデプロイメントの選択が必要な場合があります。
ハイブリッド: どのAI導入モデルでも、リソースを大量に消費するワークロードには、高速接続、負荷分散/GSLB、冗長インフラが必要です。ハイブリッドクラウドモデルにより、組織はデータの局所性、スケーラビリティ、コストなどの要素に基づいて、パフォーマンスと可用性をより柔軟に調整および最適化できます。
データのセキュリティとプライバシー
課題: 機密データの取り扱いを含むAIのデータ集約的な性質により、企業の攻撃対象領域は飛躍的に拡大し、ますます脆弱になっています。AIと大規模言語モデル(LLM推論)の導入が組織にとって重要インフラになるにつれ、システムを停止させて機密情報を盗む目的でこれらの環境を狙うサイバー攻撃が増えています。また、日常業務でAIを使用する従業員が増えるにつれて、ユーザが誤って機密情報をモデルにアップロードし、データ漏洩の危険にさらされるリスクが高まります。
オンプレミス: 企業はデータに対する制御を強化できるため、リスクをある程度軽減できますが、プラットフォーム中心のアプローチで既存のセキュリティツールを更新して簡素化する必要があります。オンプレミスでのAIおよびLLMモデルの展開は、DDoS攻撃によって圧倒される可能性があります。アプライアンス ベースのソリューションのほとんどがマルチベクトルおよびボリューム型DDoS攻撃から保護するために拡張できないためです。オンプレミスの顧客は、あらゆる規模のDDoS攻撃を防ぐために拡張可能なDDoSハイブリッドソリューションだけでなく、プロンプトインジェクション、データ漏洩、データおよびモデルポイズニング、その他のOWASP Top 10のLLM 脅威などのAI関連の脅威を防ぐために拡張可能なセキュリティベンダと連携する必要があります。
クラウド: 完全なクラウド環境でAIを導入しようとしている企業は、データに対する制御が弱くなり、GDPRやHIPAAなどのさまざまな規制のデータ保存要件に対処する必要があります。これらの組織は、同じクラウドプロバイダまたはサードパーティのマネージドセキュリティサービスプロバイダ (MSSP) からセキュリティサービスを購入することも検討できますが、ベンダを慎重に選択することが重要です。また、責任共有モデルを明確に理解することも重要です。このモデルは、時間の経過とともにコストがかかり、複雑になる可能性があります。
ハイブリッド: このアプローチは、企業にデータの制御と柔軟性のバランスを提供します。このモデルでは、環境間のデータフローを保護するために強力なデータガバナンスと暗号化が必要であり、クラウド環境とオンプレミス環境全体で一貫したセキュリティポリシーを確保する必要があります。このモデルは、長期的に見て、より高いROIを提供できる可能性があります。
企業コンプライアンス
課題: AIはデータ集約型であるため、組織が直面する最大の実装課題の1つが規制遵守となるのは当然のことです。GDPR、CCPA、EU AI法などの規制では、データガバナンス、アクセス制御、サイバーセキュリティ対策、データレジデンシ(Data Residency)、プライバシー、ユーザの同意、データの削除/修正などの分野で厳しい要件が課せられています。これらの基本対策に加えて、AIおよび LLMの導入には、次のような追加のコンプライアンス要件が課せられます。
- アルゴリズムの説明責任 - AIによる意思決定における倫理性と非バイアスの確保
- 透明性と説明可能性 - 組織のLLMがどのように意思決定を行い、どのようなデータを使用しているかを明らかにし、明確に説明する
- ベンダ管理 - システムに組み込まれたサードパーティのAIソリューションまたはデータソースのコンプライアンスを評価する
オンプレミス: オンプレミスでのAI導入により、より高度な制御、ローカライズされたデータ、業界固有の規制に対するカスタマイズされたセキュリティプロトコルにより、コンプライアンスを促進できます。ただし、オンプレミスのAIまたはLLMシステムには、多大なインフラ投資と専門家による知識も必要です。
クラウド: パブリッククラウドAIの導入は、コンプライアンス上のハードルとなる可能性があります。企業は、クラウドプロバイダが関連規制に準拠していることを確認する必要があり、ベンダの役割と責任を明確にするためにデータ処理契約(DPA)が必要になる場合があります。データレジデンシの問題が発生する可能性もあります。パブリッククラウドコンプライアンスのコストは、時間の経過とともに増加する可能性がありますが、プロセスは運用上効率的になる可能性があります。
ハイブリッド: ハイブリッドクラウドAIの導入により、制御と柔軟性のバランスが保たれ、組織はクラウド機能を活用しながらデータレジデンシ要件に対応できます。ただし、オンプレミス環境とクラウド環境間でのデータを分散・移動させることにより、規制要件の対象となる領域が増加するため、コンプライアンスはより困難になる可能性があります。
モデルの管理と既存システムとの統合
AI および 大規模言語モデル(LLM推論)のワークロードが企業インフラネットワークに与える影響は、次のような重大な管理上の課題をもたらします。
- 分散化 - 集中型アーキテクチャからエッジ中心の環境に移行し、処理速度向上と遅延の削減を実現
- 帯域幅管理 - GenAIアプリケーションがネットワークを飽和させ、他の重要なビジネスアプリケーションのパフォーマンスを低下させないようにする
- 利用管理 - 他のアプリケーションのネットワークパフォーマンスを維持しながら、AI ワークロードのGPU/TPU使用率のバランスをとる
- マルチクラウド接続 - AIトレーニングと推論のために複数の環境にわたるデータアクセスを提供
- 統合 - AIとLLMシステムをレガシーインフラなどの既存のシステムに接続
オンプレミス: オンプレミスへの導入を選択する企業は、データをより適切に制御できますが、ライセンスに多額の先行投資が必要になり、特定のスキルセットを持つ人材が新たに必要となる場合があります。ただし、このモデルを選択すると、既存のレガシーインフラとの統合が容易になります。
クラウド: パブリッククラウドは最適なスケーラビリティとアジリティを提供しますが、トラフィック管理、データのプライバシーとセキュリティ、パフォーマンス、大規模なコスト効率の面で複雑さを伴います。また、既存の顧客のレガシーインフラとの統合は、より困難になります。
ハイブリッド: ハイブリッドクラウドでは、制御と柔軟性のバランスが取れますが、クラウド環境とオンプレミス環境の両方にわたって広範な統合、慎重なコスト管理、リソース管理も必要になります。
AIとLLMの実装には大きな課題がありますが、最も適切な導入モデルを選択することで軽減できます。一般的に、大企業や大規模なサービスプロバイダはオンプレミスまたはハイブリッドアプローチを検討する必要がありますが、中小企業はハイブリッドまたは完全にクラウドベースの導入が最適である可能性があります。最終的な決定は、組織の具体的なニーズ、優先順位、リソースを慎重に検討した上で行う必要があります。
今後もAI導入に関する重要な考慮事項とベストプラクティスをさらに詳しく取り上げていきます。