AI の開発とデプロイを推進しながら、AI ライフサイクルのあらゆる段階を保護します。
NVIDIA NIM マイクロサービスを搭載した Cloudera AI Inference サービスは、市場をリードするパフォーマンスを提供します。NVIDIA GPU で最大36倍高速な推論を、CPU で4倍近いスループットを実現することで、パブリッククラウドとプライベートクラウド全体で AI の管理とガバナンスをシームレスに効率化します。

単一のサービスでエンタープライズ AI 推論のあらゆるニーズに対応
ワンクリックでデプロイ: 環境に関係なく、モデルを開発段階から本番運用へ迅速に移行します。
単一のセキュアな環境: AI ライフサイクルのすべての段階をカバーする堅牢なエンドツーエンドのセキュリティを実現します。
単一のプラットフォーム: あらゆる AI ニーズに対応する単一のプラットフォームで、すべてのモデルをシームレスに管理できます。
ワンストップサポート: ハードウェアとソフトウェアに関するすべての質問に対して、Cloudera から統合的なサポートを受けられます。
AI Inference サービスの主な特長
* 近日公開予定の機能です。詳細についてはお問い合わせください。
デモ
容易なモデルのデプロイを体験
Cloudera の強力なツールを使用して大規模言語モデルを簡単にデプロイし、AI アプリケーションを大規模かつ効果的に管理する方法をご覧ください。
モデルレジストリの統合: 一元化された Cloudera AI Registry リポジトリを使用して、モデルへのアクセス、モデルの保存、バージョン管理、モデルの管理などをシームレスに実行できます。
簡単な設定とデプロイ: クラウド環境全体にモデルをデプロイし、エンドポイントを設定し、自動拡張機能を調整して、効率を高めることができます。
パフォーマンス監視: レイテンシ、スループット、リソースの使用率、モデルの健全性などの主要なメトリクスに基づいて、トラブルシューティングと最適化を実行できます。
