Cloudera Cloudera

視聴する

お客様のデータを登録または送信いただくと、Cloudera の利用規約 (個人情報保護方針を含む) を確認し、理解し、これに同意したことになります。
このチェックボックスを選択すると、Cloudera の製品やサービス、関連する提供物に関して、個人情報保護方針に従って Cloudera が送信する、または Cloudera に代わって送信されるマーケティングおよびプロモーションのメールやメッセージを受け取ることに同意することになります。 お客様は弊社のメールやメッセージに記載された登録解除またはオプトアウトのリンクを使用して同意を取り消すことができます。

高性能な生成AIのデプロイメントには、スピード、セキュリティ、そして制御性が不可欠です。NVIDIA NIM マイクロサービス上に構築された Cloudera AI Inference サービスが、ハイブリッド環境全体にわたり、制御された高性能な生成AIのデプロイメントをどのように実現するのかをご紹介します。

本ウェビナーでは、モデルのデプロイメントを自動化するためのベストプラクティス、一貫したパフォーマンスの確保、機密データの保護、そしてモデル推論が実行されるあらゆる場所で厳格な SLA を満たす方法について解説します。

本ウェビナーでは以下をご紹介します。

  • NVIDIA NIM マイクロサービス上に構築された Cloudera AI Inference サービスが、生成 AI の高性能なデプロイメントをどのように実現するのか

  • エッジからクラウドまで、モデルのデプロイの自動化とコンプライアンスを両立するためのベストプラクティス

  • エンタープライズ企業が LLM を運用し、厳格な SLA を満たしながら、推論時点で機密データを保護する方法

AI ソリューションを実装・運用するための実践的な知見と新たなスキルを学び、組織の成長と業務効率の向上に直結するヒントをお持ち帰りいただけます。

スピーカー

Director, Product Manager

Peter Ableda

Director Product Marketing

Robert Hryniewicz

Your form submission has failed.

This may have been caused by one of the following:

  • Your request timed out
  • A plugin/browser extension blocked the submission. If you have an ad blocking plugin please disable it and close this message to reload the page.