最新レポート「エンタープライズ AI と最新のデータアーキテクチャをめぐる状況」

ダウンロードする
  • Cloudera Cloudera
  • AI の開発とデプロイを推進しながら、AI ライフサイクルのあらゆる段階を保護します。

    NVIDIA NIM マイクロサービスを搭載した Cloudera AI Inference サービスは、市場をリードするパフォーマンスを提供します。NVIDIA GPU で最大36倍高速な推論を、CPU で4倍近いスループットを実現することで、パブリッククラウドとプライベートクラウド全体で AI の管理とガバナンスをシームレスに効率化します。

    AI Inference サービスの図

    単一のサービスでエンタープライズ AI 推論のあらゆるニーズに対応

    ワンクリックでデプロイ: 環境に関係なく、モデルを開発段階から本番運用へ迅速に移行します。

    単一のセキュアな環境: AI ライフサイクルのすべての段階をカバーする堅牢なエンドツーエンドのセキュリティを実現します。

    単一のプラットフォーム: あらゆる AI ニーズに対応する単一のプラットフォームで、すべてのモデルをシームレスに管理できます。

    ワンストップサポート: ハードウェアとソフトウェアに関するすべての質問に対して、Cloudera から統合的なサポートを受けられます。

    AI Inference サービスの主な特長

    ハイブリッドとマルチクラウドのサポート

    オンプレミス、パブリッククラウド、およびハイブリッド環境へのデプロイが可能なため、多様なエンタープライズインフラストラクチャーのニーズに柔軟に対応できます。

    詳細なデータとモデルリネージ

    データ変換とモデルライフサイクルイベントを包括的に追跡して文書化するため、再現性と監査可能性が向上します。

    エンタープライズグレードのセキュリティ

    認証、承認*、データ暗号化などの堅牢なセキュリティ対策を実装して、移動中および保存中のデータとモデルを確実に保護します。

    リアルタイムの推論機能

    低レイテンシのリアルタイム予測と大規模データセットのバッチ処理により、さまざまなパフォーマンスメトリクスに基づく AI モデルを柔軟に提供します。

    高可用性と動的な拡張性

    高可用性構成と動的なスケーリング機能によって、変動する負荷を効率的に処理しながらサービスの提供を継続します。

    柔軟な統合

    従来の ML モデル用の Open Inference Protocol API と LLM 用の OpenAI 互換 API を使用して、既存のワークフローやアプリケーションを簡単に統合できます。

    複数の AI フレームワークのサポート

    TensorFlow、PyTorch、scikit-learn、Hugging Face Transformers といった一般的な ML フレームワークの統合により、さまざまな種類のモデルを簡単にデプロイできます。

    高度なデプロイパターン

    カナリアデプロイやブルーグリーンデプロイ*、および A/B テスト*などの高度なデプロイ戦略を利用して、モデルの新しいバージョンを安全かつ段階的に展開できます。

    オープン API

    オンラインモデルとアプリケーション*をデプロイ、管理、監視します。また、オープンスタンダードに準拠しているため、CI/CD パイプラインやその他の MLOps ツールとの統合が容易です。

    ビジネスの監視

    センチメント、ユーザーフィードバック、ドリフトなど、モデルの品質とパフォーマンスを維持するのに欠かせない生成 AI モデルのメトリクスを継続的に監視します。

    * 近日公開予定の機能です。詳細についてはお問い合わせください。

    AI Inference サービスの導入オプション

    パフォーマンス、セキュリティ、統制を損なうことなく、オンプレミスまたはクラウドで推論ワークロードを実行します。

    クラウドの Cloudera

    • マルチクラウドの柔軟性: 複数のパブリッククラウドに展開し、特定のエコシステムへのロックインを回避できます。
    • 価値実現までの時間を短縮: インフラストラクチャーをセットアップすることなく、推論を開始できます。迅速な実験に最適です。
    • エラスティックな拡張性: scale-to-zero 対応の自動拡張と GPU に最適化されたマイクロサービスにより、予測不能なトラフィックにも対応します。

    オンプレミスの Cloudera

    • データ主権: 完全な統制を維持します。モデル、プロンプト、資産がファイアウォール内に完全に保持されます。
    • エアギャップ対応: 政府、医療、金融サービスなど、規制の厳しい環境向けに構築されています。
    • 予測可能で低い TCO: 固定価格によりコストの予期せぬ増加を防ぎ、トークンベースのクラウド API と比べて TCO を抑えられます。
    デモ

    容易なモデルのデプロイを体験

    Cloudera の強力なツールを使用して大規模言語モデルを簡単にデプロイし、AI アプリケーションを大規模かつ効果的に管理する方法をご覧ください。

    モデルレジストリの統合: 
    一元化された Cloudera AI Registry リポジトリを使用して、モデルへのアクセス、モデルの保存、バージョン管理、モデルの管理などをシームレスに実行できます。

    簡単な設定とデプロイ: クラウド環境全体にモデルをデプロイし、エンドポイントを設定し、自動拡張機能を調整して、効率を高めることができます。

    パフォーマンス監視:
    レイテンシ、スループット、リソースの使用率、モデルの健全性などの主要なメトリクスに基づいて、トラブルシューティングと最適化を実行できます。

    headshot of Sanjeev Mohan
    Cloudera AI Inference は、NVIDIA の AI 技術を活用してデータの潜在能力を最大限に引き出し、エンタープライズグレードのセキュリティ機能でデータを守ります。これにより、自信を持ってデータを保護し、オンプレミスまたはクラウドでワークロードを実行しながら、必要な柔軟性とガバナンスを活用して AI モデルを効率的にデプロイできます。

    SanjMo 社、プリンシパルアナリスト、Sanjeev Mohan 氏

    参加する

    次のステップへ

    強力な機能をチェックし、リソースやガイドで詳細を確認して、すぐに利用を始められるようにしましょう。

    AI Inference サービスの製品ツアー

    製品ツアーのアイコン

    Cloudera AI Inference サービスの詳しい情報をご覧ください。

    今すぐ始める

    AI Inference サービスのドキュメント

    ドキュメントライブラリ

    機能の説明から実装に役立つガイドまで、必要な情報をすべて入手できます。

    ドキュメントを見る

    その他の製品を見る

    Cloudera AI


    安全性と拡張性に優れた機械学習とエンタープライズ AI のためのオープンプラットフォームによって、研究から本番環境まで、データに基づく意思決定を加速することができます。

    AI Studios


    あらゆるスキルレベルに対応し、プライバシーが確保された生成 AI とエージェント型ワークフローを、ローコードの開発速度とフルコードの統制で実現します。 

    AI Assistants


    AI の力を安全かつ大規模にビジネスに活かし、あらゆる洞察の追跡可能性、説明可能性、信頼性を確保します。

    AMP


    ビジネス対応の機械学習アプリケーションを即座に構築、デプロイ、監視するためのエンドツーエンドのフレームワークです。

    Your form submission has failed.

    This may have been caused by one of the following:

    • Your request timed out
    • A plugin/browser extension blocked the submission. If you have an ad blocking plugin please disable it and close this message to reload the page.