Nutanix Enterprise AI 
よくある質問と回答

[ご注意]本ページは、Nutanix Enterprise AI FAQs の参考和訳です。日本のお客さまやパートナーさまが Nutanix Enterprise AI の内容をより理解いただきやすいように、ご参考のため掲載するものであり、それ以外の目的のためのご利用や法的効力を生じさせることを意図しておりません。本ページの記載内容とNutanix Enterprise AI FAQs の記載内容に齟齬がある場合は、Nutanix Enterprise AI FAQs の記載内容が優先します。

Nutanix Enterprise AI に関する全般的な質問と回答

現在、AI には多くの種類が存在します。これには、画像やテキスト、分析結果を生み出す生成 AI(GenAI)やコンピュータビジョン、自然言語処理(NLP)など、さまざまな種類のAIが含まれます。どのような種類であれ、企業は AI を自社の成果や戦略に合わせて活用する必要があります。エンタープライズ AI とは、レジリエンス、Day 2 運用、AI に関するセキュリティを重視した、ビジネス成果に焦点を当てたあらゆるタイプの AI のことです。

Nutanix GPT-in-a-Box はエンタープライズ AI に特化したソリューションです。サービス主導型の GPT-in-a-Box は、新たな製品や機能の追加により進化し、オンプレミスやパブリッククラウドにおいてターンキーインフラと、自在に組み合わせできるソリューションを提供しており、エンタープライズ AI を実現するのための最適な解決策となっています。

GPT-in-a-Box 2.0 の主な機能が Nutanix Enterprise AI 製品です。Nutanix Enterprise AI(NAI)は、エンタープライズ AI アプリケーションのための生成 AI モデル(LLM:大規模言語モデル)やセキュアな API のデプロイメント、運用、監視を簡素化します。Nutanix Enterprise AI は、GPT-in-a-Box を導入するお客さまが、エンタープライズ AI の具体的な効果を確認するうえで最初に使用するコンポーネントです。その使いやすさにより、新しい人材を採用する必要が大幅に減少、または完全に不要となり、既存の IT リソースを AI リソースに簡単に拡張できるようになります。

 

Nutanix Enterprise AI(NAI)は、NVIDIA NIM や HuggingFace など、主要な LLM プロバイダ向けのエンドポイント API を提供しています。これにより組織はオンプレミスやパブリッククラウド環境で、さまざまな生成 AI モデルを容易にデプロイできるようになります。NAI には、シンプルなユーザーインターフェース(UI)、役割ベースのアクセス制御(RBAC)、オフライン環境(ダークサイトやエアギャップ環境)での運用が可能な機能が含まれており、AI モデル (LLM)の運用、監視、適応を簡素化し、組織のレジリエンスと Day 2 運用、コンプライアンスを強化します。

「エンタープライズ AI」は、ビジネスの成果や価値に焦点を当てた AI 戦略の総称です。Nutanix Enterprise AI は、AI アプリケーション向けの主要な生成 AI コンポーネントを用いたエンタープライズ AI を、シンプルかつ迅速にデプロイできる製品です。

技術的な違いは以下のとおりです。

  • AI モデルのトレーニング:ゼロからモデルを構築するための最も包括的な初期プロセス
  • AI モデルのファインチューニング:トレーニング済みのモデルを特定のタスクやドメインに適応させるプロセス
  • AI モデルの推論:トレーニングやファインチューニングされたモデルを使用して、新たなデータから予測や結論を導き出す

この 3 つの違いについて、生成 AI ではケーキ作りの例を使用してわかりやすく説明しています。

  • AI モデルのトレーニング:ケーキを焼く作業
  • AI モデルのファインチューニング:ケーキのデコレーション
  • AI モデルの推論:そのケーキを食べること

最近では 2 つの用語が同じ意味として使われることもあります。しかし、それぞれの成果は異なります。生成 AI では、相違点を下記のように説明しています。

生成 AI と従来の(予測型)AI は、能力や用途、技術が根本的に異なります。

  • 従来の AI は特定のタスクを実行するもので、ルールベースのシステムや焦点を絞った機械学習アルゴリズムを活用してデータ分析や予測、パターン認識などのタスクを実行します。
  • 生成 AI(GenAI)はオリジナルのコンテンツを作成するもので、高度な深層学習技術と大規模言語モデルを用いてテキストや画像、音楽などのコンテンツを生成します。従来の AI は限られたタスクを実行するために設計されており、専門的な知識が必要であるのに対し、生成 AI は汎用性とアクセス性が高く、自然言語を用いた対話と、さまざまな形式での斬新なアウトプットの生成が可能です。

AI 分野の進化に伴い、これら 2 つのアプローチの統合も進んでおり、AI 全体の機能性が高まっています。

Nutanix Enterprise AI は、Nutanix によって検証されたサードパーティー製の LLM と、エンドポイントを作成するためのセキュアな API を提供します。これにより、お客さまは独自の生成 AI アプリケーションを効果的に活用できます。

Nutanix は生成 AI アプリケーションを提供していません。ただし、生成 AI に関する情報を得るために役立つ複数の AI パートナーと連携し、お客さまをサポートしています。パートナーについて詳しくはこちらをご覧ください。 

Nutanix Enterprise AI が推論のために提供する主な特徴は、以下の 3 点です。

  • IT リソースを AI リソースに変換
    • エンタープライズ AI は複雑です。新しい技術要件から大きく異なる概念まで、まったく新しい世界のことのように感じることもあるかもしれません。

      Nutanix Enterprise AI は、シンプルなワークフローで生成 AI モデル(LLM)の検索、デプロイメント、管理、検証を数分で完了させ、移行を容易にします。また、セキュアな API で自社のエンタープライズ AI アプリを稼働できます。主要なメトリクスやモニタリング機能により、運用を拡大するなかで発生する不足点や問題を把握できます。
  • LLM(大規模言語モデル)のデプロイメントと運用の簡素化
    • 多くのエンタープライズ AI ソリューションには共通の専用コマンドラインを入力する必要があります。そのため、エンタープライズ AI のコアコンポーネントを実装し、運用するには高い知識が必要です。

      Nutanix Enterprise AI は、シンプルで洗練されたユーザーインターフェースを備えており、LLM の選択とセキュアな API の作成・管理を迅速に開始できるようサポートします。さらに、安全なロールベースアクセス制御と組み合わせることで、セキュアなエンタープライズ AI 環境を即座に構築できます。また、Nutanix Enterprise AI は Hugging Face や NVIDIA NIM が標準で統合されており、共同検証済みの LLM を目的に応じて選択し、デプロイできます。必要な LLM が統合先から取得できない場合でも、独自の AI モデル(LLM)をアップロードして、全てを管理することが可能です。
  • エンタープライズ AI の選択肢を拡大
    • 現在使用している生成 AI を新たに優れたモデルの登場に応じて迅速にアップデートする必要があるかもしれません。アーキテクチャやインフラを変更することなく適用と移行を実現するには、充実した選択肢が必要です。

      Nutanix Enterprise AI では Kubernetes® 環境を選択できます。Nutanix Kubernetes Platform(NKP)ソリューションや、Rancher や Docker などのソフトウェアパートナーの製品、ベアメタル環境、Google Cloud や AWS、Azure などのハイパースケーラのコンテナインスタンスなどの選択肢からニーズに応じて選ぶことができます。新たなモデルが利用可能になった場合は、Nutanix による新モデルの共同検証を待つことも、自分で新モデルをアップロードし、生成 AI アプリケーションに新しい LLM と API を容易に適用することも可能です。
  • 以下は、NAI の特徴をまとめたものです。

Nutanix Enterprise AI(NAI) は、現在 Nutanix をご利用中のお客さまだけでなく、導入を検討中のお客さまにも効果をもたらします。以下は、それぞれの場合の AI ユースケース向上のシナリオです。

Nutanix をご利用中のお客さま:

  • Nutanix のインフラと投資を活用して、Nutanix Enterprise AI で主要な AI コンポーネント(生成 AI アプリ用の任意の AI モデルと API)をシームレスに保護、管理、デプロイできます。
  • さらに簡素化するには、Nutanix Kubernetes Platform を使用すると、Nutanix Enterprise AI を検証済みのアプリケーションカタログを通じてデプロイできます。Nutanix Kubernetes Platform は、エッジからパブリッククラウドまで Kubernetes の管理と拡張を容易にします。

Nutanix の導入を検討中のお客さま:

  • Nutanix GPT-in-a-Box の利用:Nutanix GPT-in-a-Box は、Nutanix で検証済みのハードウェアプラットフォームと、インフラ管理から Kubernetes、Nutanix Enterprise AI に至るまでのソフトウェア製品スタックの中から任意で選択できます。プロフェッショナルサービスもバンドルされたターンキーソリューションです。
  • 既存インフラの利用:VMware by Broadcom* の VCF や、任意の Kubernetes を用いた 3 層データセンターインフラ、ベアメタル Kubernetes サーバー上で Nutanix Enterprise AI を実行できます。
  • 過去の投資の活用と結合:既に生成 AI への投資を行っていて、利用中の AI がある場合でも問題ありません。Nutanix 製品は自在に構成して利用できるため、お手持ちの AI スタックを自由に活用できます。例えば、
    • Red Hat OpenShift を使用中の場合は、Nutanix Enterprise AI をデプロイできます。
    • Google Cloud GKE や AWS EKS、Azure AKS 向けのパブリッククラウド Kubernetes を使用中の場合は、Nutanix Enterprise AI をデプロイできます。
    • NVIDIA AI Enterprise を使用中の場合は、Nutanix クラウドインフラと Nutanix ユニファイドストレージをデプロイし、 Nutanix Enterprise AI を用いて NVIDIA AI Enterprise ソフトウェアプラットフォームの一部である NVIDIA NIM をデプロイできます。
    • オープンソースのツールを使用中の場合は、Nutanix Kubernetes プラットフォームをデプロイし、Kubernetes の管理を簡易化して Nutanix Enterprise AI をデプロイできます。

* Nutanix, Inc は VMware by Broadcom または Broadcom とは提携していません。

Nutanix Enterprise AI は Nutanix のライセンス製品です。Nutanix GPT-in-a-Box(v1.0 および 2.0)は、エンタープライズ AI 用の検証済みの Nutanix ソリューションであり、Nutanix Enterprise AI のほか、インフラ、データ、セキュリティ、仮想化、Kubernetes、管理のための他の Nutanix 製品も含まれます。Nutanix で検証済みのスタックで、プライベートクラウド、パブリッククラウド、両方を活用したハイブリッド・マルチクラウドで、セキュアなエンタープライズ AI を構築できます。

Nutanix Enterprise AI 製品についての質問と回答

 

Nutanix Enterprise AI の仕組みは下記のとおりです。
  1. CNCF 認定の Kubernetes 環境で、Nutanix Enterprise AI をデプロイして実行する。
  2. シンプルなインターフェースにログインし、任意の LLM(大規模言語モデル)を選択し、デプロイする。
  3. セキュアな API エンドポイントを作成し、選択したモデルにアクセスする。事前に準備したクエリを実行して検証する。
  4. 検証後、API 認証情報を自社の AI 開発者かアプリケーション所有者に送信する。

 

Nutanix Enterprise AI は、主に下記の機能を提供します。

  • 洗練されたエンタープライズグレードのユーザーインターフェース
  • Hugging Face または NVIDIA NIM から AI モデル(LLM) を選択可能
  • 独自の AI モデル(LLM)のアップロード
  • API トークンの作成と管理
  • Hugging Face と NVIDIA NIM のパートナー API トークン管理
  • API コードのサンプル
  • ロールベースのアクセスコントロール(RBAC)
  • AI モデルの事前検証
  • AI モデルと API の監視
  • Kubernetes リソース監視
  • GPU 使用量のモニタリング
  • イベント監査
  • Nutanix Pulse のレポート機能を統合
     

IEP とは、Inference Endpoint (推論エンドポイント)の頭文字をとった略語で、Nutanix Enterprise AI の動作を示す共通用語です。

現在、Nutanix Enterprise AI での使用が検証されているのはは、Hugging Face か NVIDIA NGC 経由の NVIDIA NIM を通じたテキストベースの生成 AI モデルです。サポートされている検証済みモデルは、どちらかのオプションを選択すると製品上でリスト表示されます。また、選択したモデルを使用して、プライベートモデルをアップロードするオプションもあります。

以下は、2024 年 11 月 12 日現在の Nutanix Enterprise AI のリリース時点での利用可能なモデルリストです。

統合しています。Hugging Face の API トークンと任意のモデルリポジトリを使用して、 Nutanix で検証済みの Hugging Face LLM 使用できます。詳しくはこちらをご覧ください。 

Hugging Face へ API コールするには、Nutanix Enterprise AI 内で Hugging Face API トークンが必要です。このトークンは Hugging Face が指定する手順に従って作成できます。

Nutanix Enterprise AI のリスト上の利用可能なモデルによっては、 Hugging Face Gated Repository を通じてモデルにアクセスしなければならない場合があります。ゲート付きリポジトリはモデルの所有者(Meta や Google など)によって設定されており、モデルを適切にダウンロードしてアクセスするためにはその手順に従う必要があります。 詳しい手順は、Hugging Face の Webサイトをご覧ください。

Nutanix Enterprise AI で利用可能な AI モデル(LLM)は下記リストをご覧ください。Hugging Face のウェブサイトに記載されていないモデルについても、手動でモデルをアップロードすることも可能です。

統合しています。現行の NVIDIA NIM API トークンを用いて、NIM 用の NVIDIA NGC カタログから検証済みの LLM をダウンロードできます。詳しくはこちらをご覧ください。

Nutanix Enterprise AI はNVIDIA NGC カタログを通じて NVIDIA NIM のモデルを活用します。NGC は、GPU アクセラレーテッド AI モデルと SDK のカタログで、自社のアプリケーションに AI を取り入れるのに役立ちます。

NVIDIA は、データセンターやAIオペレーション向けの特定の GPU のライセンスの一環として NVIDIA AI Enterprise を提供しています。GPU の種類に応じて一定期間の NVIDIA AI Enterprise ライセンスを取得できます。

詳しくは Nutanix ソフトウェアオプションの Web ページをご覧ください。

現時点では提供していませんが、Nutanix はソリューションを概念実証できるテストドライブのオプションを無料で提供しています。

含まれています。Nutanix Enterprise AI は他の Nutanix 製品にバンドルされており、Nutanix Enterprise AI for GPT-in-a-Box 2.0 タイプと Nutanix Enterprise AI for Bare Metal タイプがあります。

詳しくは Nutanix ソフトウェアオプションの Web ページをご覧ください。

直接アップグレードすることはできませんが、Nutanix Enterprise AI Stand-Alone ライセンスを取得することは可能です。

GPT-in-a-Box 1.0 はサービスを中心としたソリューションで、あらかじめ定められたスタックです。GPT-in-a-Box 2.0 は検証済みのスタックで、 Nutanix Kubernetes Platform と Nutanix Enterprise AI が追加されています。

必要ありません。ただし、Nutanix Cloud Infrastructure(NCI)を用いて互換性のあるハードウェアを選択できます。

Nutanix Enterprise AI は、Nutanix Kubernetes Platform 上か CNCF(Cloud Native Computing Foundation)認定の Kubernetes ランタイム、またはサポートされているパブリッククラウド(例えば Amazon EKS や Azure AKS)上の Kubernetes で実行できるコンテナセットです。

Nutanix は現在、NVIDIA GPU をサポートしています。

Nutanix Enterprise AI は、NVIDIA GPU をサポートしています。

ハードウェアシステムとサーバーシステムで異なった GPU をサポートしています。また、Kubernetes では GPU を使えるように設定する必要があります。GPU の互換性については以下のサイトでご確認ください。

現時点(2024年11月)では、Intel AMX はサポートしていません。

Nutanix Enterprise AI for GPT-in-a-Box 2.0 は、下記を含むほかの Nutanix 製品を用いた検証済みのプラットフォームを提供します。

  • Nutanix クラウドインフラ(NCI)
  • Nutanix Kubernetes Platform
  • Nutanix ユニファイドストレージ

インフラから LLMOps、セキュリティまで、Nutanix が推奨するパートナーについては以下のリンクをご覧いただけます。

https://www.nutanix.com/jp/partners/technology-alliances?tag=nutanix:filters/solution-categories/ai

含まれていません。ただし、Nutanix Enterprise AI 向けのサービスを別途追加できます。必須ではありません。

詳しくは、こちらをご覧ください。

  • CNCF(Cloud Native Computing Foundation)認定の Kubernetes ランタイムのある環境であればどこでもデプロイできます。
  • また、以下の環境もサポートしています。
    • Nutanix ハイパーコンバージドインフラ(HCI)上で、AHVハイパーバイザを通して、AI アクセラレーション用の GPU も含めてサポートされているシステムが構築されている環境。
    • Nutanix Kubernetes Platform(NKP)を経由した環境。
    • パブリッククラウドベースの IaaS(インフラ・アズ・ア・サービス)を用いて、サポート対象のハイパースケーラを経由した環境。現在、Nutanix がサポートしているハイパースケーラは以下のとおりです。
      •  AWS EKS
      • Azure AKS
      • Google Cloud GKE
    • ベアメタル上。
    • CNCF 認定の Kubernetes が稼働している、「ダークサイト」やエアギャップ環境(インターネットに接続されていない環境)。

Nutanix Enterprise AI の使用に、Nutanix ハイパーコンバージドインフラは必要ありません。

Nutanix Enterprise AI は、パブリッククラウドも含め、CNCF(Cloud Native Computing Foundation)認定の Kubernetes ランタイム上ならどこでも実行できるコンテナセットです。

Nutanix Enterprise AI は、パブリッククラウド上にデプロイできます。

Nutanix Enterprise AI のデプロイメントが検証されているパブリッククラウドは以下のとおりです。

  • Google Cloud GKE
  • AWS EKS
  • Azure AKS

Nutanix Enterprise AI は、生成 AI アプリケーション用の LLM(大規模言語モデル)、API の開発とデプロイメントを効率化します。

Nutanix Enterprise AI は、CNCF 認定の Kubernetes 環境で実行できるため、パブリッククラウド上に簡単にデプロイできます。デプロイメント後は、ストレージやアプリケーションなど他のパブリッククラウドサービスを使用できます。そのため、パブリッククラウドに重点を置く企業は、自社のモデルやデータを、VPC 上や管理しているネットワーク上の任意の場所で安全に活用できます。

Nutanix Enterprise AI をデプロイする価値は、類似のパブリッククラウドサービスに競合することではなく、LLM の検証と開発を容易かつ迅速に実行することにあります。自社での LLM の検証が完了した後は、Nutanix Enterprise AI を本番環境で使用することや、検証済みの LLM を個別の LLM 本番ワークフロー(LLMOps)に引き渡すことができます。

プライベートのエンタープライズ AI を使用したい場合は、Nutanix Enterprise AI をパブリッククラウド VPC 上で使用することも、オンプレミスで Nutanix ハイパーコンバージドインフラ(HCI)を用いてプライベートクラウドを構築して使用することも可能です。

実行できます。

ダークサイトバンドルが Nutanix サポートポータルにあり、ログインとライセンス取得が必要です。

Nutanix サポートポータル上にセットアップ用の文書があります。(注:以下のリンクは Nutanix Enterprise AI リリース時に公開予定です)

https://portal.nutanix.com/page/documents/details?targetId=Nutanix-Enterprise-AI-v1_0:Nutanix-Enterprise-AI-v1_0

Nutanix GPT-in-a-Box ソリューションを基にした、Nutanix の検証済み設計(NVD)が利用可能です。

また、Cisco は、独自の検証済み設計(CVD)を提供しています。

Nutanix Enterprise AI の主な統合は、Hugging Face と NVIDIA NIM です。Nutanix Enterprise AI に対応するその他のサードパーティの AI パートナーについては、こちらをご覧ください。

©2024 Nutanix, Inc.All rights reserved.本文書に記載された、Nutanix、Nutanix のロゴ、および Nutanix のその他全ての製品とサービス名は、米国およびその他の国において Nutanix, Inc. の登録商標または商標となります。Nutanix, Inc. は、VMware by Broadcom または Broadcom と提携関係にありません。VMware および本書に記載された VMware の各種製品名は、米国およびその他の国における Broadcom の登録または未登録商標です。Kubernetes® は、The Linux Foundation の米国およびその他の国における登録商標です。本文書に記載された、その他のブランド名は、識別目的のみに使用されており、それぞれの所有者の商標となります。

外部サイトへのリンクまたは参照に関する当社の判断は、当該サイトにおけるいかなる内容の宣伝とも見なされるべきではありません。本[投稿/プレゼンテーション]に含まれる一部の情報は、調査、発行物、アンケート、および第三者の情報源および当社が独自に行った社内の予測・研究におけるその他のデータに関連するか、これに基づいています。こうした第三者による調査、発行物、アンケ―ト、およびその他のデータは本紙の投稿時点で信頼性があるものの、明示的に記載されていない限り独自には検証されておらず、当社は第三者の情報源から取得した情報の適性、正確性、または完全性に関して一切の表明を行いません。

このコンテンツには、開発中の新製品の機能や技術、その機能や技術に関する将来性や発表計画など、当社の計画や予想に関する記述をはじめとして、将来の見通しに関する明示的および黙示的な記述が含まれる場合があります。既定の事実ではなく、当社の現時点における見通し、予測、信念に基づくものです。このような記述にはリスクと不確実性が伴い、その正確性は当社の管理できない事由を含む将来の事象に左右されます。また、実際の結果は、そのような記述によって予想または暗示されるものと大きく異なる場合や、逆である場合があります。本コンテンツに含まれる将来の見通しに関する記述は、本コンテンツの日付時点のものであり、法律に定められた場合を除き、当社は、その後の出来事または状況に合わせて、将来の見通しに関する記述を更新または変更する義務を負わないものとします。将来の製品または製品の機能情報は、製品の一般的な方向性を概説することを目的としており、Nutanix が何らかの機能を提供することに対するコミットメント、約束、または法的義務を示すものではありません。この情報は、購入の意思決定の際に使用されることを目的とするものではありません。