この記事は、2025/06/11に公開された「Cloudera Supercharges Your Private AI with Cloudera AI Inference, AI-Q NVIDIA Blueprint, and NVIDIA NIM」の翻訳です。
Cloudera が顧客と AI の目標について話す中で、よく耳にする課題の一つは、プライバシーへの懸念が原因で計画や実装が停滞してしまうことです。従業員や顧客が最も正確な結果や回答を得るためには、企業のすべてのデータに AI を活用したいと考えています。しかし同時に、クローズドソースの大規模言語モデル (LLM) のパブリックエンドポイントにデータを送信することはできないと理解しています。その理由は、1. データ量が膨大であること、2. データのプライバシーが保持されなくなること、この 2 点です。
これらの懸念に対応するため、Cloudera はプライベート AI というコンセプトを提唱し始めています。これにより、顧客は AI がもたらすあらゆる利点を享受しつつ、自社の機密データを安全に保護できます。
NVIDIA も同じ課題を、より高次かつ広範なレベルで目の当たりにしています。それは国家レベルです。各国政府は、自国以外で AI を運用することは自国の最善の利益にならないと認識し、自国のデータと AI を国境内にとどめるために必要なインフラ整備を進めています。そして、自国のデータや AI の成果をどの国や組織と共有するかを、自ら管理できるようになります。
本日開催された GTC Paris カンファレンスにおいて、NVIDIA は各国政府の取り組みを支援するためのソブリンAI の基盤を提供しました。この取り組みは、お客様が自社専用のプライベート AI プラットフォームを実装できるよう支援するという Cloudera の重点分野とも高い親和性を持っています。
NVIDIA は Cloudera にとって特に注目すべき 2 つの発表を行いました。本ブログでは、AI-Q NVIDIA Blueprint for Enterprise Research と NVIDIA NIM に焦点を当て、これが当社のお客様にとってどのような意味を持つのかを掘り下げていきます。
NVIDIA が発表したエンタープライズリサーチ向け AI-Q ブループリントにより、Cloudera AI はお客様の複雑なエージェント型AIニーズを支援するための機能を強化しました。
Cloudera AI Inference は、NVIDIA NeMo Retriever および LLM 推論マイクロサービスをすべてホスティングでき、これらは AI-Q NVIDIA Blueprint を構成しており、NVIDIA Llama Nemotron 推論モデルも含まれます。モデルエンドポイントに対して Cloudera AI プラットフォームが提供する強力なプライバシーとセキュリティに、NVIDIA Agent Intelligence ツールキットの高い性能を組み合わせることで、企業のエージェント型アプリケーションを次のレベルへと引き上げることができます。
Cloudera AI Inference サービスで AI-Q NVIDIA Blueprint を活用することで、AI の大きな可能性が開かれます。この強力な組み合わせにより、NVIDIA NIM や NeMo Retriever マイクロサービスとして提供される先進的な推論モデルが Cloudera AI に統合され、さらに NVIDIA Agent Intelligence ツールキットとの完全な互換性によって、エージェント、ツール、データ間のシームレスな接続が実現されます。
このマルチフレームワーク対応により、組織は堅牢なプライバシーとセキュリティを備えた高度な企業向け検索拡張生成 (RAG:Retrieval-Augmented Generation) アプリケーションを構築し、最先端の AI 技術を最大限に活用することができます。
NVIDIA の NIM コンテナは、LLM から最高のパフォーマンスを迅速かつ簡単に引き出す画期的なソリューションです。モデルと GPU ハードウェアに基づいて最適な推論バックエンドを自動的に選択することで、LLM のデプロイメントと推論を大幅に高速化し、多数の最先端 LLM の運用サービスを効率化する、モデルに依存しない推論ソリューションを提供します。
さらに掘り下げると、NVIDIA NIM マイクロサービスは、NVIDIA TensorRT-LLM、vLLM、または SGLang によって高速化された LLM を迅速にデプロイし、あらゆる NVIDIA アクセラレーテッドプラットフォーム上で最高水準の推論を可能にします。Hugging Face や TensorRT-LLM 形式で保存されたモデルをサポートし、幅広い LLM に対して企業向けの推論を提供します。ユーザーは、レイテンシとスループットを最適化するためのスマートデフォルトを利用することも、シンプルな設定オプションでパフォーマンスを微調整することも可能です。NVIDIA AI Enterprise の一部として、NVIDIA NIM マイクロサービスは NVIDIA から継続的にアップデートが提供され、幅広い人気の LLM との互換性が確保されます。
NVIDIA の NIM は、顧客が AI アプリケーションで LLM を活用する方法において、より高い柔軟性を提供します。Cloudera AI Inference サービスにはすでに NVIDIA NIM が組み込まれているため、顧客は NVIDIA NIM マイクロサービスを迅速かつ容易に実装できます。顧客は、使いやすさ、安全性、そして単一の統合プラットフォーム Cloudera による効率的なサポートとともに、NVIDIA NIM の利点を享受できます。
NVIDIA NIM マイクロサービスは、Cloudera の AI Inference サービスにシームレスに統合されており、Cloudera AI のお客様に次のような大きな利点をもたらします。
デプロイの高速化:あらかじめ構築された最適化済みコンテナを利用し、LLM アプリケーションをより迅速に稼働可能。
パフォーマンス向上:NVIDIA アクセラレーテッドコンピューティングの性能を最大限に活用し、高速推論とレイテンシ削減を実現。
スケーラビリティ:ビジネスの成長に合わせて LLM デプロイを容易に拡張可能。
管理の簡素化:Cloudera の直感的なインターフェースで LLM デプロイを管理・監視可能。
Cloudera と NVIDIA は協力し、企業がパブリックデータであれプライベートデータであれ、あらゆるデータに対して最新の AI 技術を容易かつ効率的、そしてコスト効果高く活用できるようにしています。開発からデプロイメントまでの AI アプリケーションライフサイクルを簡素化し、パフォーマンスを最適化することで、私たちはユーザーが AI の可能性を最大限に引き出せるよう支援しています。
NVIDIA のブログで GTC Paris の発表内容をご確認ください。また、Cloudera の AI に関するブログ、特に Dell、NVIDIA、Cloudera によって実現された最新の「AI in a Box」についての記事もぜひご覧ください。これは、顧客がプライベートAIを迅速かつ容易に、そして最小限のリスクで導入できる新しい方法を提供します。
This may have been caused by one of the following: