この記事は、2023/09/19 に公開された「How Financial Services and Insurance Streamline AI Initiatives with a Hybrid Data Platform」の翻訳です。
OpenAI の ChatGPT、Google の Bard、Meta の LLaMa、Bloomberg のBloombergGPT-awareness といった、大規模言語モデル (LLM) の新しく創造的な AI アルゴリズムの出現により、業界全体におけるAIのユースケースへの関心と採用は、かつてないほど高まっています。しかし、規制の厳しい業界ではこのような技術の採用が禁止されていることが多く、既製の生成 AI の活用方法よりも、自社のデータと AI がどのようにビジネスを変革できるのかという点に関心が高まっています。
AI を活用することで、金融機関や保険会社は、複雑な意思決定プロセスを自動化または補強し、高度にパーソナライズされたカスタマーエクスペリエンスを提供できます。さらに、個別の顧客用に教育資料を作成し、各顧客のニーズに合った適切な金融・投資商品をマッチングさせることができるようになりました。少なくともここ10年で最も画期的な技術開発だと言えるでしょう。
もちろん、これにはリスクも伴います。各機関は、透明性、信頼性、公平性、説明責任を果たすだけでなく、プライバシーやセキュリティの要件に準拠し、人の価値観や規範に沿った AI システムを設計しなければなりません。例えば今年6月、欧州連合 (EU) は AI に関する世界初の規制枠組みである AI 規制法案を可決しました。この法律では、AI アプリケーションを「受容できない」、「ハイリスクシステム」、「その他の AI システム」に分類し、「ハイリスク」の AI システムには厳しい評価要件を課しています。AI 規制法案の下では、「ハイリスク」AI システムは、プロバイダーによる自己評価を強制事項とし、特定の重要なアプリケーション (医療機器に使用される AI など) は、既存の EU 規制に基づく審査の対象となります。AI システムの訓練に使われるデータセットの複雑さ、また生成 AI システムが事実でない情報を捏造する既知の傾向を考慮すれば、これは決して簡単ではありません。
また、特に商用 AI ソリューションでは、知的財産 (IP) や個人を特定できる情報 (PII) など、さまざまな形でのデータ漏洩のリスクもあります。このため、金融機関には、強固なデータ暗号化基準を導入し、機密データをローカルで処理し、監査を自動化し、サービス契約において明確な所有権条項を取り決める責任があります。しかし、こうした対策だけでは、機密情報を保護するには十分ではない可能性があります。
既存の AI ソリューションはすべて、人間の認知能力に近似したり超えたりできないという意味で「狭い」ものです。推論したり、熟考したり、想像したりすることができず、真の感情を理解することはできません。そうは言っても、生成 AI と LLM がこれらすべてを実行するように見えるのは、入力データから学習することでオリジナルの創造に見える出力を生成しているからです。ChatGPT、Bard、LLaMa、BloombergGPT は、Transformerモデルと呼ばれる新しいタイプのニューラルネットワークアーキテクチャに依存しています。Transformerモデルは、特別な形式の重み付けを使用して、文またはシーケンスのさまざまな部分にわたる関係とコンテキストをキャプチャします。
LLM やその他の「狭い」AI 技術の現実は、どれもそのまま使えるものではありません。AI を導入する金融機関は、企業文化の変革の難しさとともに、中核となる業務プロセスやアプリケーションのワークフローを再構築するという課題に取り組まなければなりません。
AI ソリューションは複雑かつ不透明なモデルであり、大規模で多様かつ高品質なデータセットを求めます。そのため、データ管理とガバナンスに不可欠な監視、管理、保証プロセスが複雑になりがちであることが、おそらく最大の課題でしょう。それを管理する方法は、データ統合、データ品質の監視、その他の機能をデータプラットフォーム自体に組み込むことです。金融機関はこれらのプロセスを合理化し、データへのアクセスを促進し、データ品質を維持し、コンプライアンスを確保しながら、AI ソリューションの運用に集中することができます。
金融サービスや保険で使用できる AI の最も現実的で最適なソリューションは「信頼できるAI (Trusted AI)」と呼んでいるものだと信じています。しかし、これが何かについて詳しく語る前に、金融機関が商用 AI サービスを検討する際に考慮すべき問題について説明します。
第一に、自社のビジネスにとって重要な知的財産 (例えば、独自のデータ、ビジネス戦略、方法論など) を保護するという課題があります。この情報を外部の AI サービスに保存したり、処理したりすると、これらの重要な資産が不注意で漏れたり、公開されたりする可能性があるのです。
第二に、PII、取引記録、その他の種類の機密データや秘密データの保護という問題があります。強固なセキュリティ対策に守られている場合でも、外部の AI サービスは、セキュリティ侵害のターゲットとなる可能性があります。各統合ポイント、データ転送、または外部に公開された API が、悪意のあるアクターのターゲットとなるのです。
第三に「ブラックボックス」の要素があります。商用 AI サービスのアルゴリズムの設計と動作は、通常は独自のものであり、言うまでもなく、意図的に隠蔽されています。このような透明性の欠如は、金融機関が AI サービスのアウトプットを規制基準に照らして徹底的に吟味し、検証することを困難にしています。
第四に、AI を活用した自動化は、金融機関の業務プロセスやワークフロー全体に組み込まれたときに、最も大きな変革をもたらします。AI は中核的なプロセスと密接に絡み合っているため、商用 AI サービスを標準化することは、ベンダーロックインにつながります。それは、イノベーションが抑制されたり、単一のベンダーが大きな権限を持つことによって、条件や価格ににおける交渉力に制限がかかり、最終的には将来の意思決定の制御を失うことにつながります。
「信頼できる AI」は、生成 AI や LLM 機能を含む、組織全体のエンタープライズAIを支える理念です。モデルは金融機関の安全なデータで学習され、金融機関独自のインフラであったり、機密性のないワークロードの場合は、仮想プライベートクラウド (VPC) インフラで、内部的にデプロイされ、実行されます。これによって、より大きなコントロールと柔軟性を保証するだけでなく、知的財産 (IP) のような専有資産の完全性を保護するのに役立ちます。さらに、金融セクター特有の厳格なセキュリティとコンプライアンス基準を実施しながら、機密データの保護も強化します。また、オープンソースの AI モデルのコードは公開されているため、そのインプットとアウトプットは理解可能かつ説明可能であり、透明性が確保されています。
現在、商業プロバイダーが AI の分野を支配しているのは事実ですが、オープンソースソフトウェアの歴史は、この独占は急速に弱まることを示唆しています。オープンソースの AI は、OpenAI、Google、Meta、マイクロソフトに急速に追いついただけではありません。ChatGPT のデビューからわずか数ヶ月で、オープンソースの AI モデルは、よりカスタマイズ可能で、手頃な価格で、透明性があるだけでなく、ほぼ同等の速さになっているのです。かつてのオープンソースのシステム、データベース、機械学習 (ML) 技術のように、AI モデルは信じられないほどの速さで独占的な代替技術との差を縮めています。
もう1つあります。信頼できる AIの基盤は、金融機関のオンプレミス環境とマルチクラウド環境に分散しているデータの統合ビューを提示できるハイブリッド・データ・プラットフォームです。このプラットフォームは、AI と自動化を用いて、データへのアクセス、移動、統合、分析の複雑さを抽象化します。データプラットフォームレベルにインテリジェンスを組み込むことで、金融機関が、AI ソリューションを実用化するペースを加速させることが可能になるのです。
内蔵されたデータ管理とガバナンス機能の組み合わせは、企業が業務全体に信頼できる AI を 組み込むための強固な基盤を提供します。このブログシリーズでは、信頼できる AIのメリットと AI 導入の広範な影響について掘り下げ、金融機関が AI 戦略をどのように立ち上げ、進化させることができるかを、最初のステップから、成熟した AI 導入の姿まで探っていきます。
まずは、金融サービスにおけるAIの成熟度モデルに関することからご紹介します。
1. 基礎的なAIの統合
この基礎段階では、金融機関はオープンソースの AI ツールを優先することから始め、商用やクラウドのソリューションがリスクにさらされる可能性があることを理解します。この段階の基礎となるのは、機関全体のデータをシームレスに統合し、一般的なタスクを自動化または高速化できるハイブリッド・データ・プラットフォームです。
2. 中級 AI の統合
このレベルでは、金融機関や保険会社は基礎となるハイブリッド・データ・プラットフォームの上に構築し、AI の可能性をより深く活用し、ユーザーエクスペリエンスの向上、データドリブン型の意思決定の促進、強固なサイバーセキュリティのレイヤー防御の実装に重点を置きます。
3. 高度なAI統合
この採用段階では、金融機関や保険会社はAIとその機能をより集中的に活用し、データからより価値のある洞察を引き出します。ハイブリッドプラットフォームの自動化機能は、この段階で非常に重要であり、より迅速な適応と豊富な分析を可能にします。
4. 変革的なAIの統合
強力なオープンソースの基盤とハイブリッド・データ・プラットフォームが完全に稼動すれば、AIは金融機関のコアプロセスに深く浸透します。IAMやRBACのような強固なセキュリティメカニズムにより、許可された個人だけが機密性の高いAIモデルやデータにアクセスできるようにします。
5. 完全に成熟したAI統合
金融機関や保険会社は、完全に成熟期を迎えると、ハイブリッド・データ・プラットフォームの上に構築された「信頼できるAI」のパワーを実感できます。すべての業務に信頼できるAIが組み込まれることで、AIの運用化を加速させます。
Cloudera には、堅牢なデータ管理機能と高度な分析ツールの独自の組み合わせがあるので、AIイニシアチブの導入や推進を目指す金融機関や保険会社にとって、理想的なハイブリッド・データ・プラットフォームと言えます。Cloudera は、大規模なデータインフラを扱ってきた実績があり、金融機関が運用する機密性の高い複雑なデータ環境に必要な信頼性とセキュリティを提供します。多様なデータソースをシームレスに統合して処理する Cloudera の能力と、機械学習および AI ツールの包括的なスイートを組み合わせることで、金融機関は予測モデリング、リスク評価、不正検出、パーソナライズされた顧客エクスペリエンスのために生成 AI の力を活用することができます。Clouderaを利用することで、金融機関は厳しい規制基準を遵守しながら、データから貴重な洞察を引き出すことができ、最終的にはAIドリブン型の金融という、急速に進化する状況において競争力を得ることができます。
CDP、モダンデータアーキテクチャ、AIについての詳細はこちらをご覧ください。
このトピックに関連する情報は、以下をご覧ください
This may have been caused by one of the following: