使用 AI 大型語言模型(LLM)與生成式 AI 的 API,讓企業 AI 應用程式和資料的部署、維運及開發變得簡單,並確保安全的 AI 端點。
Nutanix Enterprise AI 簡化並保障生成式 AI 的應用,幫助企業透過生成式 AI 釋放前所未有的生產力、營收成長及價值。
簡化工作流程,便於監控與管理 AI 端點,釋放你的內在 AI 潛能。
透過點選式介面輕鬆部署 AI 模型與安全 API,可選擇 Hugging Face、NVIDIA NIM,或是你自己的私有模型。
在 CNCF 認證的任何 Kubernetes 執行環境中,無論是本地端部署還是公有雲,都能安全運行企業 AI,同時充分運用現有的 AI 工具。
選擇 Hugging Face 所提供之經過驗證的 LLM,開箱即用,包含 Google Gemma、Meta LLama 和 Mistral。
使用 NVIDIA NGC 目錄,透過 NVIDIA NIM 部署如 Meta Llama 等模型。
你是否需要未被列出的或是專屬的模型?你可自行上傳所需的 LLM。
使用基於角色的存取控制,輕鬆為開發者和生成式 AI 應用程式擁有者建立或移除對 LLM 的存取權限。
透過 Hugging Face 和 NVIDIA NIM 更新並儲存外部中心和目錄的 API Token。
點擊一下即可建立 URL 格式的 JSON 程式碼,並用於 API 測試。
追蹤登入、API 事件及 LLM 請求等重要事件。
透過簡單的儀表板,將 API 請求量、 Kubernetes 基礎架構健康狀況等所有內容進行可視化。
使用設計好的提示或問題,快速查詢已部署的 AI 模型(LLM)以進行測試或可行性驗證。
進一步瞭解 Nutanix Enterprise AI 的常見問題