最新レポート「エンタープライズ AI と最新のデータアーキテクチャをめぐる状況」

ダウンロードする
  • Cloudera Cloudera
  • AI の開発とデプロイを推進しながら、AI ライフサイクルのあらゆる段階を保護します。

    NVIDIA NIM マイクロサービスを搭載した Cloudera AI Inference サービスは、市場をリードするパフォーマンスを提供します。NVIDIA GPU で最大36倍高速な推論を、CPU で4倍近いスループットを実現することで、パブリッククラウドとプライベートクラウド全体で AI の管理とガバナンスをシームレスに効率化します。

    AI Inference サービスの図

    単一のサービスでエンタープライズ AI 推論のあらゆるニーズに対応

    ワンクリックでデプロイ: 環境に関係なく、モデルを開発段階から本番運用へ迅速に移行します。

    単一のセキュアな環境: AI ライフサイクルのすべての段階をカバーする堅牢なエンドツーエンドのセキュリティを実現します。

    単一のプラットフォーム: あらゆる AI ニーズに対応する単一のプラットフォームで、すべてのモデルをシームレスに管理できます。

    ワンストップサポート: ハードウェアとソフトウェアに関するすべての質問に対して、Cloudera から統合的なサポートを受けられます。

    AI Inference サービスの主な特長

    ハイブリッドとマルチクラウドのサポート

    オンプレミス*、パブリッククラウド、およびハイブリッド環境へのデプロイが可能なため、多様なエンタープライズインフラストラクチャーのニーズに柔軟に対応できます。

    詳細なデータとモデルリネージ*

    データ変換とモデルライフサイクルイベントを包括的に追跡して文書化するため、再現性と監査可能性が向上します。

    エンタープライズグレードのセキュリティ

    認証、承認*、データ暗号化などの堅牢なセキュリティ対策を実装して、移動中および保存中のデータとモデルを確実に保護します。

    リアルタイムの推論機能

    低レイテンシのリアルタイム予測と大規模データセットのバッチ処理により、さまざまなパフォーマンスメトリクスに基づく AI モデルを柔軟に提供します。

    高可用性と動的な拡張性

    高可用性構成と動的なスケーリング機能によって、変動する負荷を効率的に処理しながらサービスの提供を継続します。

    柔軟な統合

    従来の ML モデル用の Open Inference Protocol API と LLM 用の OpenAI 互換 API を使用して、既存のワークフローやアプリケーションを簡単に統合できます。

    複数の AI フレームワークのサポート

    TensorFlow、PyTorch、scikit-learn、Hugging Face Transformers といった一般的な ML フレームワークの統合により、さまざまな種類のモデルを簡単にデプロイできます。

    高度なデプロイパターン

    カナリアデプロイやブルーグリーンデプロイ*、および A/B テスト*などの高度なデプロイ戦略を利用して、モデルの新しいバージョンを安全かつ段階的に展開できます。

    オープン API

    オンラインモデルとアプリケーション*をデプロイ、管理、監視します。また、オープンスタンダードに準拠しているため、CI/CD パイプラインやその他の MLOps ツールとの統合が容易です。

    ビジネスの監視*

    センチメント、ユーザーフィードバック、ドリフトなど、モデルの品質とパフォーマンスを維持するのに欠かせない生成 AI モデルのメトリクスを継続的に監視します。

    * 近日公開予定の機能です。詳細についてはお問い合わせください。

    AI Inference サービスの主な特長

    ハイブリッドとマルチクラウドのサポート

    オンプレミス*、パブリッククラウド、およびハイブリッド環境へのデプロイが可能なため、多様なエンタープライズインフラストラクチャーのニーズに柔軟に対応できます。

    詳細なデータとモデルリネージ*

    データ変換とモデルライフサイクルイベントを包括的に追跡して文書化するため、再現性と監査可能性が向上します。

    エンタープライズグレードのセキュリティ

    認証、承認*、データ暗号化などの堅牢なセキュリティ対策を実装して、移動中および保存中のデータとモデルを確実に保護します。

    リアルタイムの推論機能

    低レイテンシのリアルタイム予測と大規模データセットのバッチ処理により、さまざまなパフォーマンスメトリクスに基づく AI モデルを柔軟に提供します。

    高可用性と動的な拡張性

    高可用性構成と動的なスケーリング機能によって、変動する負荷を効率的に処理しながらサービスの提供を継続します。

    柔軟な統合

    従来の ML モデル用の Open Inference Protocol API と LLM 用の OpenAI 互換 API を使用して、既存のワークフローやアプリケーションを簡単に統合できます。

    複数の AI フレームワークのサポート

    TensorFlow、PyTorch、scikit-learn、Hugging Face Transformers といった一般的な ML フレームワークの統合により、さまざまな種類のモデルを簡単にデプロイできます。

    高度なデプロイパターン

    カナリアデプロイやブルーグリーンデプロイ*、および A/B テスト*などの高度なデプロイ戦略を利用して、モデルの新しいバージョンを安全かつ段階的に展開できます。

    オープン API

    モデルとアプリケーション*をデプロイ、管理、監視します。また、API がオープンスタンダードに準拠しているため、CI/CD パイプラインやその他の MLOps ツールとの統合が容易です。

    ビジネスの監視*

    センチメント、ユーザーフィードバック、ドリフトなど、モデルの品質とパフォーマンスを維持するのに欠かせない生成 AI モデルの主要なメトリクスを継続的に監視します。

    * 近日公開予定の機能です。詳細についてはお問い合わせください。

    デモ

    容易なモデルのデプロイを体験

    Cloudera の強力なツールを使用して大規模言語モデルを簡単にデプロイし、AI アプリケーションを大規模かつ効果的に管理する方法をご覧ください。

    モデルレジストリの統合: 一元化された Cloudera AI Registry リポジトリを使用して、モデルへのアクセス、モデルの保存、バージョン管理、モデルの管理などをシームレスに実行できます。

    簡単な設定とデプロイ: クラウド環境全体にモデルをデプロイし、エンドポイントを設定し、自動拡張機能を調整して、効率を高めることができます。

    パフォーマンス監視: レイテンシ、スループット、リソースの使用率、モデルの健全性などの主要なメトリクスに基づいて、トラブルシューティングと最適化を実行できます。

    headshot of Sanjeev Mohan
    Cloudera AI Inference は、NVIDIA の AI 技術を活用してデータの潜在能力を最大限に引き出し、エンタープライズグレードのセキュリティ機能でデータを守ります。これにより、自信を持ってデータを保護し、オンプレミスまたはクラウドでワークロードを実行しながら、必要な柔軟性とガバナンスを活用して AI モデルを効率的にデプロイできます。

    SanjMo 社、プリンシパルアナリスト、Sanjeev Mohan 氏

    参加する

    Webinar

    Cloudera と NVIDIA による生成 AI の拡張: AI 推論による LLM のデプロイ

    News

    Cloudera、生成 AI の開発とデプロイメントを加速する組み込み型 NVIDIA NIM マイクロサービスを搭載した AI 推論サービスおよび、新機能を発表

    ブログ

    Business | AI
    Dennis Duckworth,Michael Garrison | Tuesday, March 18, 2025
    Business | AI
    Priyank Patel,Peter Ableda,Jeff Healey,Christopher Van Dyke | Tuesday, March 18, 2025
    ドキュメント

    利用を始めるためのリソースとガイド

    Cloudera AI Inference サービスのドキュメントには、詳細な機能説明や役立つ実装ガイドなど、必要な情報がすべて含まれているため、迅速に利用を開始できます。

    始める準備はできましたか?Cloudera の実力をその目でお確かめください。

    Your form submission has failed.

    This may have been caused by one of the following:

    • Your request timed out
    • A plugin/browser extension blocked the submission. If you have an ad blocking plugin please disable it and close this message to reload the page.