生活やビジネスを大きく変えつつある生成AI。しかし実際の業務に適用するには、まだ様々な障壁が存在するのも事実だ。これらを解消するためにデル・テクノロジーズが提唱しているのが「Dell AI Factory」だ。ここではその全体像について紹介していく。中でも生成AIの導入・活用を阻む逆風とそれを解消するアプローチについて考察したい。
2022年以降、急速に注目を集めるようになった生成AI。既にクラウドで提供されているサービスを利用しているビジネスパーソンも多いはずだ。しかしこれを、いざ本格的に業務で活用しようとすると、意外と高いハードルに直面する。
「生成AIには導入を遅らせる“3つの逆風”があります」と語るのは、デル・テクノロジーズでAIスペシャリストを務める増月 孝信氏だ。それは、複雑さがもたらす「スキルと人材の問題」「セキュリティーやリスク」そして「導入コスト」だという。
デル・テクノロジーズ株式会社
データワークロード・ソリューション本部
シニアビジネス開発マネージャ/AIスペシャリスト
増月 孝信氏
「生成AIのユースケースは実に多種多様であり、その導入パターンも事前トレーニング済みモデルの導入から、RAG(Retrieval-Augmented Generation:検索拡張生成)によるモデルの拡張、ファインチューニング、モデルのトレーニングまで、複数存在します。あらゆるユースケースに適応できる万能なアプローチはないため、検討段階から複雑さに直面することになるのです。またユースケースや導入モデルに適した環境を用意しないと、コストが必要以上にかさんでしまう結果になりがちです」(増月氏)
こうした3つの問題を解決するためにデル・テクノロジーズが提唱しているのが「Dell AI Factory」である。これは生成AI導入に関する幅広い要素を包含したものだという。
Dell AI Factoryは特定のソリューションを指すのではなく、生成AI導入に関する幅広い要素を包含したアプローチだ
実際の生成AIの活用に向け、最初に考えるべきなのが図の右に位置するユースケースである。ここで何を選択するかによって、最適な導入パターンや必要なデータ、インフラストラクチャの規模などが変わってくるからだ。
そうしたユースケースの一例が、「Dell Technologies World 2024」で発表された「デジタルアシスタント」だ。これは生成AIを活用した「デジタルヒューマン」で、自然言語を音声でやり取りできるだけではなく、相手の言葉や発音のニュアンスなどから感情も読み取り、それに合わせた対応も行えるという。
「既に、米国テキサス州にあるアマリロ市で利用が始まっています。同市は小さな町ですが自然災害が多く、その情報を適宜提供していかなければなりません。しかし英語を話せない移民が多いため、このデジタルアシスタントを活用しているのです。この事例は世界的に大きな注目を集めており、今後様々な領域で活用されることになるはずです」(増月氏)
ユースケースを決めて導入パターンの選択を行ったら、次にどのようなデータを使うかを検討することになる。
「ここで重要なのは、『生成AIにデータを提供する』というのではなく、『データに生成AIを寄せていく』という考え方です。つまり、まずはデータ基盤を整備してデータを管理し、これを生成AIの原動力として活用するのです。そのためにDell AI Factoryでは『Dell Data Lakehouse』というデータ管理ソリューションを用意しています」(増月氏)
ここで悩ましいのが、「このデータをどこに配置するか」という問題である。社内データはビジネス差別化の根源の1つであり重要な経営資源だ。これをクラウドなどの社外インフラに載せるかどうかは高度な判断を伴う。データに生成AIを寄せて本格的にビジネスでの活用を進めていくには、どうしても「データと生成AIの両方をオンプレミスに配置する」という選択肢を検討することになる。
しかし、オンプレミスで生成AI用のインフラを用意するには、大きく2つのハードルを超えなければならない。1つ目が、ユースケースに最適な規模・能力のインフラを選択すること。2つ目が、そのインフラで生成AIが問題なく動くことを事前に検証しておくことだ。
「まず1つ目のハードルをクリアしやすくするために、デル・テクノロジーズではAI PCやワークステーションから、エッジサーバー、ハイエンドサーバー、クラウドまで、業界で最も幅広いAI向けインフラのポートフォリオをご用意しています」と増月氏は語る。
その中には、NVIDIAのGPUを搭載したラップトップモデルから、2024年3月にNVIDIAが発表したAI向け新GPU「B200」を1ラック(52U)で72基搭載できる液冷サーバーまで含まれている。
「エントリーレベルでは“Tシャツサイズ”と呼ばれる小規模な構成、RAGを行う場合には中規模な構成、モデルをトレーニングするハイエンドな使い方ではNVIDIAのSuperPODに匹敵するようなアーキテクチャまでカバーしています。またエッジでは、NVIDIAのAIソフトウエアとデル・テクノロジーズのNativeEdge統合フレームワークを連携させ、NVIDIAフレームワークの配信を自動化したソリューションも用意しています」(増月氏)
様々なレベルのパフォーマンスとスケールに対応した構成が、すべて事前検証された状態で提供される
このラインアップでもう1つ注目したいのは、これらがすべて事前検証された状態で提供されている点だ。つまり2つ目のハードルも解消できるのである。
「このようにエンド・ツー・エンドで検証済みモデルを用意することで、多様なユースケースと導入パターンに最適なインフラを、シンプルかつ短時間で導入することが可能です。その結果、AIへの投資を適切な規模に設定することも容易になります」(増月氏)
これによって、幅広いユースケースと導入パターンに対して、最適な投資を行うことが容易になる
ここで気になるのが、クラウドと比較した場合のコストだ。これも既に、第三者機関による検証が行われている。市場調査・分析サービス会社のEnterprise Strategy Group (ESG) が、デル・テクノロジーズのインフラを利用したオンプレミスの推論LLM(大規模言語モデル)と、パブリッククラウドのIaaSおよびAPIサービスとで、コストを比較する調査を実施している。
オンプレミスで推論LLMを動かした場合、IaaSに比べて4倍、APIサービスに比べて8倍のコスト効率が実現できる
「この調査結果では、オンプレミスはパブリッククラウドに比べて4倍、トークンベースのAPIサービスに比べて8倍のコスト効率になることが判明しています。またこのコスト比は、ユーザー規模に比例して大きくなることも分かっています」(増月氏)
つまり、デル・テクノロジーズのインフラをオンプレミスに導入した場合、ユースケースに最適な投資規模を選択できるだけではなく、コスト効率も高くなる。そのため生成AI導入の“逆風”の1つであるコストの問題を、クラウドに比べて簡単に解決できるわけだ。
ただし、生成AIの環境整備を単一ベンダーだけですべて提供しきれるものではない。そのためにデル・テクノロジーズが重視しているのが、広範かつオープンなエコシステムだ。NVIDIAに代表される「シリコンプロバイダー」との緊密な連携もその1つ。また、それと同様に重要となるのがソフトウエアパートナーとの連携だという。
デル・テクノロジーズ株式会社
データワークロード・ソリューション本部
シニアシステムエンジニア /AIスペシャリスト
山口 泰亜氏
「例えばMetaとは、Meta Llama 3に最適化されたパッケージの作成・検証を行っており、これをHugging Face経由で提供しています。またデル・テクノロジーズは、Hugging Faceの優先オンプレミスインフラストラクチャプロバイダーになっています」とデル・テクノロジーズでAIスペシャリストを務める山口 泰亜氏は語る。
Hugging Faceとは2016年に設立された、オープンなアプローチによって「AIの民主化」を推進している企業。当初はチャットボットアプリの開発を行っていたが、その後事業方針を転換し、LLMやその活用に役立つツールやプログラム、スクリプト、ドキュメント、フレームワークなどを、誰でも無償で使えるように公開している。デル・テクノロジーズはそのサイトの中にポータルを立ち上げ、自社のインフラに最適なコンテナイメージを無償ダウンロードできるようにしているという。
「このポータルにアクセスするとカタログメニューが表示され、その中から生成AIモデルを選択できるようになっています。モデルをクリックすると、モデルの詳細が表示されるほか、パフォーマンスなどの比較情報や、そのモデルがどのインフラで動くのかも分かるようになっています。ここでデプロイタブをクリックしてターゲットとなるインフラを選ぶと、そのインフラに最適化されたDockerイメージがダウンロードされ、オンプレミスのサーバーで実行可能になります。現在はサーバーがターゲットになっていますが、近い将来にはワークステーションにも拡大予定。またKubernetesのサポートも計画されています」(山口氏)
ここから自社のインフラに最適な、生成AIのDockerイメージをダウンロードできる
こうしたポータルがあれば、オンプレミスにインフラを整備した後、すぐに生成AIの活用を開始できる。またワークステーションまでターゲットが拡大すれば、個人でのダウンロード利用も容易になるだろう。
そして最後に紹介したいのが、各種要素の上に位置する「サービス」だ。デル・テクノロジーズには生成AI導入ステップのベストプラクティスがあり、これに基づいた各種サービスを提供している。
その中には、コンサルティングサービスに加え、ユースケース実装支援、Dell Precisionワークステーション上のRAG向けアクセラレータサービス、Microsoft Copilot向けサービスなどが含まれる。
「戦略立案からデータの準備、インフラ構築、モデルのデプロイとテスト、運用と拡張までカバーしています。これによって、いきなりハードルの高い導入を行うのではなく、エントリーポイントの難易度を大幅に下げ、様々な活用を行える“糸口”をつくりたいと考えています」(山口氏)
これらの取り組みは、調査会社からも高く評価されている。デル・テクノロジーズは「Forrester Wave」において、AIインフラストラクチャソリューションのリーダーだと認められている。その理由としては、シングルベンダーでエンド・ツー・エンドのインフラを提供できること、データマネジメントやサポートサービスも提供していること、幅広いエコパートナーと連携していることなどが挙げられている。
ここまで、生成AI導入の“逆風”を解消できる、Dell AI Factoryについて解説してきた。こうした考えに基づき生成AIを業務に適用すれば、高いコスト効果で成果を挙げることも期待できるだろう。
コラム: Dell AI Factory with NVIDIA 活用事例
AIプライベートクラウドのメリットと課題とは
AIプライベートクラウドへの期待が高まっている。AIプライベートクラウドとは、企業が独自のニーズに応じてAIソリューションを活用するための仕組みだ。AIプライベートクラウドは、ユーザーの特定のニーズに合わせたカスタマイズが可能であり、業界固有の要件や企業の戦略に応じたAIモデルを開発、テスト、実装することで、より効果的なAIの活用が可能になる。特に自社の機密性の高いデータを高鮮度で低遅延にAIモデルで活用したいと考える企業にとってプライベート環境で実装できることは、セキュリティー観点からも大きなメリットだ。
ただし、AIプライベートクラウドの活用は容易ではない。環境に加え、次世代の専門知識とスキルが必要だ。AIアプリケーションの開発・実行には高速なAIインフラが必要であり、適切なツールやフレームワークを選定する知見も求められる。さらに、そうしたインフラを短期間で設計・構築するためのノウハウや、セキュリティーに配慮したデータガバナンスも必要だ。こうした課題を、企業が自社のみで解消することは容易ではない。
プライベートAIの課題を解消するKyndryl Private Cloud AI Services
これらの課題に対応するために、キンドリルが提供しているのが「Kyndryl Private Cloud AI Services」だ。これは、日本におけるAIイノベーションの実現を目的とした専用のAIプライベートクラウド。AIサービスを開発、テスト、実装できるよう、制御され、高度なセキュリティーが確保された、独立したクラウド環境上でのAIモデルの施策から実装・運用までのサービスを提供している。Dell AI Factory with NVIDIAを基盤としており、データセンターからアプリケーション実装までをモジュラー型サービス(※)で提供している(図)。
※モジュラー型サービス:サービス群の中から必要なものを選択して導入できるサービス
Kyndryl Private Cloud AI Servicesは、大きく4つのサービスで構成される。1つ目は「AI Labサービス」だ。これは、本格導入前にオンプレミスAI環境を試用するための環境を提供するもの。AIアプリケーションのPoC(概念実証)環境やLLM(大規模言語モデル)のチューニングの試行などに利用できる。
2つ目が「AIアプリケーション開発サービス」だ。これは、ユースケースの探索を顧客企業と共に行うとともに、そのユースケースの価値を実証するプロトタイプや本格展開に向けたアプリケーション開発を支援するもの。3つ目が「AIプライベートクラウド基盤実装サービス」である。これはオンプレミスに顧客専用のAI プライベートクラウドを高速に実装し、開発するAIアプリケーションの要件・規模に合わせた最適なインフラを構築するもの。これにより、安全で効果的なAIサービスの実現を支援する。
最適なプライベートAI環境を整備したとしても、それで終わりではない。インフラを構築したデータセンター、低遅延の高速ネットワークやハードウエア、AIアプリケーションに至るまで常に最適なアップデートが求められるからだ。そうした運用を代行するのが4つ目の「運用サービス」だ。マルチクラウド環境での適材適所のワークロードの稼働を包括的に支援するという。
このようにKyndryl Private Cloud AI Servicesは、企業が直面するプライベートAI導入の課題を解決するための包括的なソリューション。これを上手く活用すれば、企業はより安全で効果的なAI活用が可能になるはずだ。
企業がAI戦略を推進する為に必要なステップをモジュール型で提供。検討段階や推進体制に応じて必要なサービスを選択できる
関連記事