消費者金融におけるチャットボット
問題を解決したり質問に答えたりするために顧客と協力することは、金融機関にとって不可欠な機能であり、リレーションシップ バンキングの基礎でもあります。1 顧客は金融商品やサービスに関するサポートを金融機関に求めており、タイムリーで率直な回答が得られることを当然のことながら期待しています。使用されるプロセスやテクノロジーに関係なく。
消費者金融保護局 (CFPB) が実施した次の調査では、金融市場における「人工知能」として宣伝されることが多い先進技術の導入が顧客サービス体験にどのような影響を与える可能性があるかを調査しています。 このレポートの目的は、金融機関によるチャットボット テクノロジーの使用方法と、それに関連して顧客が直面している課題について説明することです。 CFPB の分析は次のことを示唆しています。
金融機関は長年にわたり、さまざまなチャネルを使用して見込み顧客や既存顧客とやり取りしてきました。 銀行支店は、顧客が自宅の近くで銀行業務を行い、顧客サービスやサポートを受けられる場所を提供するために設立されました4。金融機関に質問し、対面でやり取りできる機能は、長い間、リレーションシップ バンキングの中核的な理念でした。
金融機関は時間の経過とともに、顧客が金融機関とより簡単にやり取りできるように、コンタクト センター (以前はコールセンターと呼ばれていました) を追加してきました。 これらの機関が成長するにつれて、多くのコンタクト センター機能は、通話を適切な担当者にルーティングし、コストを削減するために、自動音声応答テクノロジーに移行しました。 新しいテクノロジーが利用可能になると、金融機関は、モバイル アプリケーション 5 や、メッセージや「ライブ チャット」を介して送受信する機能など、顧客サポート用のオンライン インターフェイスを導入しました。 消費者金融におけるチャットの導入により、顧客はチャット プラットフォーム上でカスタマー サービス エージェントとリアルタイムでやり取りできるようになりました。
コンピューター プログラミングを使用して人間のような応答をシミュレートするチャットボットは、主に人間の顧客サービス エージェントのコストを削減するために導入されました。 最近、金融機関は、テキストや音声を使用してチャット応答を自動的に作成するために、生成的機械学習や、ニューラル ネットワークや自然言語処理などのその他の基盤テクノロジーの実験を開始しています。6 以下では、顧客サポート目的でのチャットボットの使用について説明します。
チャットボットは、人間の会話の要素を模倣するコンピューター プログラムです。 洗練さ、自動化、機能の点で大幅に異なる場合がありますが、いずれもユーザーの入力を取り込み、プログラミングを使用して出力を生成します。7
ルールベースのチャットボットは、デシジョン ツリー ロジックまたはキーワードのデータベースを使用して、事前に設定された限定された応答をトリガーします。 これらのチャットボットは、キーワードのセットに基づいてオプションから選択するかオプション間をユーザーにナビゲートするためのオプションのセットメニューをユーザーに提示し、所定のルールを使用して応答を生成する場合があります。 通常、ユーザーは事前に定義された可能な入力に制限されます。8 たとえば、銀行のチャットボットは、口座残高の確認や支払いなど、消費者が選択できるように設定された数のオプションをリストする場合があります。
より複雑なチャットボットは、追加のテクノロジーを使用して応答を生成します。 具体的には、これらのチャットボットは、自然な対話をシミュレートするために、機械学習や「人工知能」として販売されることが多い技術を使用するように設計されている可能性があります。9 他の複雑なチャットボットは、LLM を使用して、大規模なデータセット内の単語間のパターンを分析し、メッセージに応答してどのテキストが続くかを予測します。人の質問.10
ドメイン固有のチャットボットは、ユーザーが特定のタスクを達成できるようにすることを目的としており、その機能はヘルスケア、教育、銀行業務などのトピック分野に限定されています11。私たちの分析は金融業界のチャットボットに焦点を当てています。
チャットボットは、銀行、住宅ローン回収会社、債権回収会社、その他の金融会社の Web サイト、モバイル アプリケーション、ソーシャル メディア アカウントなど、金融業界全体で目立つように使用されています。 2022 年には、9,800 万人を超えるユーザー (米国人口の約 37%) が銀行のチャットボットを利用しました。 このユーザー数は、2026 年までに 1 億 1,090 万人に増加すると予測されています。
注目すべきことに、国内の上位 10 の商業銀行はすべて、顧客とのやり取りにさまざまな複雑さのチャットボットを使用しています。 これらのチャットボットには人間の名前が付いている場合があり、ポップアップ機能を使用してエンゲージメントを促進し、ソーシャル メディア アカウントでダイレクト メッセージを交換することもできます。 金融機関が顧客サービスを提供するためにチャットボットを導入する理由は、24 時間年中無休の可用性や即時応答などの特定の機能によって説明される可能性があります 13。これらの金融機関のコスト削減によっても導入が促進される可能性があります。 たとえば、人間のエージェントによる顧客サービス モデルの使用と比較した場合、チャットボットは年間 80 億ドルのコスト削減を実現し、顧客とのやり取りあたり約 0.70 ドルのコスト削減を実現することがレポートで示されています。14
チャットボットは、ほぼ 10 年前から金融市場に組み込まれており、その人気は長年にわたって着実に高まっています 15。今日、業界の多くは、少なくとも、ディシジョン ツリー ロジック、またはトリガーとなるキーワードや絵文字のデータベースを備えた単純なルールベースのチャットボットを使用しています。あらかじめ設定された限定された応答。 多くの場合、これらのチャットボットは独自のサードパーティ テクノロジー企業によって強化されています。 たとえば、Kasisto は JPMorgan Chase と TD Bank に金融に焦点を当てた会話型チャットボットを提供しており 16、Interactions は Citibank をサポートしています 17。
チャットボットの導入が進むにつれ、Capital One などの一部の機関は、実際の顧客の会話やチャット ログに基づいてアルゴリズムをトレーニングすることで独自のチャットボット テクノロジーを構築しました。18 Capital One は、2017 年 3 月に SMS (テキスト メッセージング) チャットボットである Eno を発売しました。19他の銀行チャットボットと同様に、Capitol One は Eno が口座残高の確認、最近の取引と利用可能なクレジットの確認、支払い期日の把握、請求書の支払い、カードの有効化、カードのロックまたは交換、個人情報の更新、口座番号の検索ができると主張しています。 20 同様に、バンク・オブ・アメリカも 2018 年に独自のチャットボット Erica を発表しました。2022 年 10 月までに、Erica は 10 億件以上のやり取りで約 3,200 万人の顧客によって使用されました。21
最近では、銀行業界は、生成型チャットボットなどの「人工知能」として販売されている高度なテクノロジーを導入し始めています。 たとえば、2023 年 4 月、ゴールドマン・サックスの最高情報責任者は、銀行の従業員が知識を蓄積し、顧客の主要な質問にオンデマンドで回答できるようにするために、銀行のエンジニアリング スタッフが独自の「ChatGS」または LLM チャットボットの作成を開始することを提案しました。22
業界におけるチャットボット テクノロジーの利用が進むにつれ、場合によってはデータセットやプラットフォームを最大手のテクノロジー企業に依存することもありました。 たとえば、2022 年 9 月に、Truist は、アマゾン ウェブ サービス (AWS) 製品である Amazon Lex 上に構築されたデジタル アシスタントを発表しました 23。ウェルズ ファーゴは、2022 年 10 月に、Alphabet の Google Cloud プラットフォームを使用した新しいチャットボット仮想アシスタント Fargo の発売を発表しました。 LLM を利用して顧客の入力を処理し、カスタマイズされた応答を提供します。24 さらに、モルガン・スタンレーは、Microsoft が支援する OpenAI の GPT 4 テクノロジーを利用して、金融アドバイザーにスクリプトを送信する新しいチャットボットをテストしていると発表しました。25
チャットボットの機能はテキスト交換だけに限定されません。 たとえば、US Bank は 2020 年 6 月にモバイル アプリを介してスマート アシスタントを開始しました。スマート アシスタントは主に音声プロンプトに応答し、二次的な代替手段としてテキストによる問い合わせを可能にします。26 他の銀行チャットボットと同様に、スマート アシスタントは次の目的で設計されたシンプルなルールベースの機能に従います。ユーザーの信用スコアの検索、口座間の送金、取引の異議申し立て、Zelle を介した他のユーザーへの支払いの促進など、日常の銀行業務。27
多くの金融企業も、ルールベースのチャットボットの使用をソーシャル メディア プラットフォームを利用したチャットボットに拡大しています。 国内のトップ 10 銀行のほとんどは、Twitter または Meta の Facebook および Instagram でダイレクト メッセージとビジネス チャットを可能にしています。 Facebook と Instagram の Business Chat は、自動応答などの機能を生成します28。
数十年前に顧客サポートが対面から遠隔コールセンターに移行したのと同じように、経済全体のセクターは現在、人によるサポートからアルゴリズムによるサポートに移行しています。
CFPB は消費者金融商品やサービスに関する一般からの苦情を集めています。 金融機関によるチャットボットの使用が増えるにつれ、一般からの苦情では、チャットボットと対話する際に人々が経験した問題について説明されることが増えています。 場合によっては、これらの問題により、現行法の遵守に関して疑問が生じます。 以下では、CFPB に提出された苦情の詳細にあるように、顧客が経験した課題の一部について説明します。 また、チャットボットの使用によって引き起こされる業界全体の問題についても調査します。
人工知能 (「AI」) という用語は、顧客が高度に洗練されたシステムを利用していて、そのシステムが提供する答えが実際にインテリジェントで正確であることを示唆するために使用されます。 しかし、「AI」や自動化技術にはさまざまな形があります。 実際、人々は、基本的な情報を取得してオウム返ししたり、顧客をポリシーや FAQ に誘導したりする以外に役立つ能力がほとんどない、非常に初歩的なシステムを扱っている可能性があります。 「AI」が人のリクエストを理解できない場合や、人からのメッセージがシステムのプログラミングと矛盾する場合、チャットボットが主要な顧客サービス手段となることは適していません。
人々は、紛争を正確かつタイムリーに認識、調査、解決するために金融機関に依存しています。 こうした顧客の期待と法的要件には、顧客がいつ懸念や紛争を提起しているかを企業が正確に特定することが組み込まれています。 チャットボットや高度にスクリプト化された担当者は、あるレベルの柔軟性のなさをもたらす可能性があり、特定の単語や構文だけが紛争の認識を引き起こし、紛争解決のプロセスを開始する可能性があります。 その結果、チャットボットやスクリプトが紛争を認識する機能が制限される可能性があります。
チャットボットが顧客によって紛争が提起されていることを識別できる場合でも、その紛争を調査して解決する能力には技術的な制限がある可能性があります。 場合によっては、顧客が取引や情報が不正確であることに異議を唱えていることがあります。 顧客が反論しようとしているのと同じシステム情報を単に吐き出すだけのチャットボットでは不十分です。 このようなオウム返しは、紛争や問い合わせに意味のある対処をしません。
ある人は次のように述べています29。
さらに、ルールベースのチャットボットは、ユーザーからのアカウント情報を受け入れまたは処理するように設計されており、データ入力の範囲外のリクエストには応答できないため、一方通行になる傾向があります。 構文が制限されたチャットボットは、顧客が探している情報を取得するために正しいフレーズを知っている必要があるコマンドライン インターフェイスのように感じることがあります。30 この制限は、テクノロジーが英語で訓練を受けているため、英語能力が限られている人にとっては特に問題となる可能性があります。方言の数が限られているため、多様な方言ニーズを持つ消費者がチャットボットを使用して金融機関から支援を受けることが困難になっています。 より便利であると宣伝されていますが、明確で論理的なナビゲーションで情報を閲覧することに比べて、模擬会話の動作を実行するのは退屈で不透明になる可能性があります。 たとえば、ある人は最近次のように不満を言いました:31
以下で詳しく説明するように、チャットボットは時々答えを間違えることがあります。32 人の経済的生活が危険にさらされている場合、間違った結果は重大な結果を招く可能性があります。 金融機関が法的に正確であることが求められる特定の情報を人々に提供するためにチャットボットに依存している場合、間違っていると法的義務に違反する可能性があります。
具体的には、LLM を使用する複雑なチャットボットは、正確で信頼できる情報を提供するのが難しい場合があります。 LLM でトレーニングされた会話型の生成型チャットボットの場合、基礎となる統計手法は、事実上正しいデータと不正確なデータを区別するのに適切な位置にありません。 その結果、これらのチャットボットは、生成するコンテンツ内で繰り返される誤った情報や偽情報のインスタンスを含むデータセットに依存する可能性があります。
最近の研究では、チャットボットが不正確な情報を提供する可能性があることが示唆されています。 たとえば、Microsoft が支援する OpenAI の ChatGPT、Meta の BlenderBot、Alphabet の LaMDA の比較研究では、これらのチャットボットが一部のユーザーには検出できない誤った出力を生成することが多いことが示されました 33。Alphabet の Bard チャットボットの最近のテストでは、架空の出力も生成することが判明しました 34。さらに、最近の研究では、Microsoft が支援する OpenAI の ChatGPT が、誤った出力を生成するだけでなくバイアスを悪化させる可能性があることが実証されました。35 教育者はチャットボットを「ロジック、専門知識、または最新の情報を必要とするタスクにはあまり適していない」と述べています。 36 銀行業務における LLM で訓練された会話型チャットボットを顧客に応答するための信頼性の低い情報源として利用している。
チャットボットが間違う可能性があるという事実にもかかわらず、ユーザーは生成型チャットボットに財務上のアドバイスを求めています37。たとえば、ある調査では、人々はクレジット カード、デビット カード、当座預金口座、普通預金口座、住宅ローン貸し手に関する推奨事項やアドバイスを求めるために LLM チャットボットを使用していると報告されています。 、および個人ローン。38
銀行業務におけるチャットボットの使用は、顧客に問題に対する即時かつタイムリーなサポートを提供することを目的としています。 チャットボットが信頼性の低いテクノロジーや不正確なデータに支えられている場合、あるいは会社の公開ポリシーやよくある質問への入り口にすぎない場合、顧客は頼ることができなくなる可能性があります。 金融機関にとって、人々の経済生活に関して信頼性が高く正確な回答を提供することは、重要な機能です。
チャットボットによる自動応答では顧客の問題を解決できず、人間のカスタマー サービス担当者に問い合わせることなく、繰り返しの役に立たない専門用語や法律用語の連続ループに陥る可能性があります。 これらの「破滅ループ」は、顧客の問題がチャットボットの限られた機能の範囲外にあり、顧客が金融機関との確実な、そしておそらく必要な会話に参加できなくなるときに発生することがよくあります。 上で述べたように、一部のチャットボットは LLM に依存して、一般的な顧客の問い合わせに対する応答を生成します。 チャットボットを使用して特定の問い合わせに対する回答を得ることができる人もいるかもしれませんが、明確で信頼できる回答を得る能力は、同じテクノロジーによって複雑になる可能性があります。
金融機関は、たとえば担当者がすぐに答えを得ることができるなどの理由で、自動化システムの方が効果的または効率的であると主張する場合があります。 しかし、自動応答は高度にスクリプト化されており、単に顧客を長いポリシー ステートメントや FAQ に誘導するだけで、役に立つ情報があったとしてもほとんど含まれていない可能性があります。 これらのシステムは、そのようなポリシーを説明する人間の負担や知識豊富な顧客サービス エージェントの責任を、安価な自動化プロセスに移しているだけかもしれません。 その結果、数人の顧客がチャットボットによる「破滅ループ」に陥っているとしてCFPBに苦情を申し立てた。 例:39
そして別の顧客は次のように苦情を言いました:40
チャットボットは、特定のタスクを解決したり、情報を取得したりするようにプログラムされているため、悩みを抱える顧客に合わせてサービスを有意義に調整できない場合があります。 顧客が財務問題についてサポートを求めているとき、不安、ストレス、混乱、またはイライラを感じることがあります。 研究によると、人々は不安を経験すると、リスクや意思決定に対する見方が変わることがわかっています41。チャットボットの制限により、顧客は基本的な財務情報にアクセスできなくなり、不満が増大する可能性があります。 たとえば、ある調査では、チャットボットと対話した消費者の 80% が、チャットボットがニーズを満たせなかった後、さらに不満を感じ、78% が人間とのつながりを必要としていることがわかりました。42 たとえば、ある消費者は次のように述べています。43
消費者はまた、不当な待ち時間によって人間のカスタマー サービス サポートへのアクセスがさらに妨げられることに気づくかもしれません。 これらの障害は、消費者を立ち往生させ、助けを与えないだけでなく、彼らの財務管理能力に深刻な影響を与えます。 消費者は次の問題について CFPB に苦情を申し立てました:44
さらに、これらのチャットボットの性質が限定的であること、および人間の顧客サービス担当者にアクセスできないことは、顧客が最初に特定の金融機関との関係にサインアップするときに、顧客には明らかではないかもしれません。 それは顧客が問題を経験するまで明らかではなく、その解決に時間と労力を費やす必要があり、時間を無駄にし、消費者の選択肢を減らし、意味のある効果的な顧客サポートに投資して競争しようとしている金融機関を弱体化させてしまいます。
人間の代わりに高度なテクノロジーを導入することは、収益の増加や償却の最小化を目指す企業にとって意図的な選択である可能性もあります。 実際、高度なテクノロジーは手数料を免除したり、価格交渉に応じたりする可能性は低いかもしれません45。
大まかに言えば、自動化システムの信頼性は、企業が機能の優先順位を決定し、開発リソースをどのように割り当てるかに部分的に依存します。 たとえば、収益を増やすためには、データに基づいて特定の顧客に関連する金融商品を宣伝する自動システムの機能を改善することが優先される場合があります。 この投資は、収益の増加につながらない機能を犠牲にして行われる可能性があります。 したがって、自動化システムが特定の顧客機能をうまく処理できる場合でも、他の機能の処理が苦手な場合があります。 簡単に言うと、投資決定によりチャットボットの信頼性への投資が過少になる可能性があります。 ある人は次のように不満を言いました:46
さらに、チャットボットは他のテクノロジーと同様にクラッシュする可能性があります。 顧客が金融機関から一刻を争うサポートを受ける唯一の選択肢が壊れたチャットボットである場合、顧客サービスがほとんど、またはまったく受けられない状況に陥る可能性があります。 消費者の苦情は、チャットボットの技術的な限界の一部を示しています。たとえば、次のとおりです。47
プログラミングの問題であろうとソフトウェアの問題であろうと、不満を抱いている顧客には機能しないチャットボットしか見えません。
チャットボットは自動化されているため、悪意のある者が偽のなりすましチャットボットを構築して大規模なフィッシング攻撃を行うためによく使用されます。 会話エージェントは「人間のような」存在であることが多く、ユーザーが自分の能力を過大評価し、単純な Web フォームよりも多くの情報を共有する可能性があります。 ユーザーがこれらのなりすましチャットボットと個人情報を共有することは非常に危険です。 近年、一般的なメッセンジャー プラットフォームのユーザーをターゲットにして個人情報や支払い情報を入手し、送金アプリを通じて偽りの料金を支払わせる詐欺が増加しています48。
なりすましチャットボットを使用して消費者に損害を与えるだけでなく、別のチャットボットからの情報をフィッシングするようにチャットボットをプログラムすることもできます。 このような状況では、チャットボットは特定のプライバシーおよびセキュリティ プロトコルに従うようにプログラムされている可能性がありますが、必ずしも不審な行動パターンやなりすましの試みを検出するようにプログラムされているわけではなく、詐欺師による個人情報のフィッシングや窃盗の試みを認識して対応できない可能性があります。人々のアイデンティティ。
たとえば、2022 年 5 月、詐欺師は DHL (荷物配達および速達サービス会社) になりすまして、被害者をチャットボットに誘導し、荷物を受け取るための追加送料を要求する電子メールを送りました。 チャットボットの会話には、キャプチャ フォーム、電子メール、パスワードのプロンプト、さらには破損した荷物の写真も含まれていたため、信頼できるものであるように見えました49。
金融機関には、使用されているテクノロジーに関係なく、個人を特定できる情報を安全に保管する義務があります。50 セキュリティ研究者は、安全ではない時代遅れの Web 転送プロトコルを使用している組織から、チャットに個人情報を入力する絶望的で不満を抱いている消費者に至るまで、チャットボットのさまざまな潜在的な脆弱性を強調しています。支援が必要なため、プラットフォームにアクセスします。51
たとえば、特定のアカウントの所有者であることを確認するには、通常、顧客は個人情報の提供を求められます。 顧客は、個人情報や財務情報を企業に提供する場合、それが慎重に扱われ、機密が保持されることを期待します。 したがって、顧客がチャット ログに個人情報を入力する場合、それらのログは消費者の機密情報とみなされ、侵害や侵入から安全に保管される必要があります。 チャットログはプライバシー攻撃の新たな場所をもたらし、消費者の個人情報と財務情報のプライバシーとセキュリティを完全に保護することがより困難になります。 2018 年、Ticketmaster UK は、支払いページの「会話型 AI」を含むさまざまなサービスに Inbenta Technologies を採用しました。 ハッカーは Inbenta サーバーを標的にし、プラットフォーム ユーザーによる支払いを処理するためにチャットボットに入力された情報を記録する悪意のあるコードを挿入しました。その結果、60,000 件の個人の支払いカードの詳細を含む 940 万人のデータ主体に影響を与えるサイバー攻撃が発生しました。
さらに、LLM でトレーニングされたチャットボットは、不法に取得された可能性のある人々に関する情報を含むトレーニング データセットに依存しています。53 トレーニング データに個人情報が含まれている場合、プライバシーの侵害が発生する可能性があります。個人情報は、影響を受ける個人に落ち度がなく、モデルによって直接開示されます。 54 いくつかの大手銀行が従業員による Microsoft 支援の OpenAI の ChatGPT の使用を制限しているため、これらのリスクの一部は金融機関によって認識されているようですが、少なくとも内部情報が対象となっているためです。55
チャットボットなどの AI システムに必要なセキュリティ テストの範囲は広範囲に及び、厳格なテストと運用に関与するサードパーティ サービス プロバイダーの徹底的な監査の両方が必要です。 これらのシステムには、適切なガードレールなしで機密の顧客データを任せるには、脆弱性が多すぎます。
CFPB が受け取ったチャットボットに関する消費者の苦情は、チャットボットの使用が消費者のデータのセキュリティを保護する機関の能力を妨げるのではないかという懸念を引き起こしています。56
金融機関はコストを削減しながら顧客サポートを処理するためにチャットボットなどのテクノロジーへの投資を継続しているため、このレポートで詳述されているようなテクノロジーの限界を考慮する必要があります。 人々と対話する主なモードとしてチャットボット テクノロジーを使用すると、個々の金融機関に次のようないくつかのリスクが生じる可能性があります。
議会は金融機関にさまざまな関連義務を課す連邦消費者金融法を可決した。 これらの義務は、金融機関が顧客に率直な回答を提供することなどにより、顧客と公正に取引することを保証するのに役立ちます。
金融機関は、チャットボットが顧客のコミュニケーションを取り込んで応答する場合、チャットボットが提供する情報が正確ではない可能性があり、テクノロジーが消費者が連邦権利を行使していることを認識できない可能性があり、消費者のプライバシーとデータを保護できない可能性があります。
消費者が金融機関からの支援を必要とする場合、状況は悲惨かつ緊急である可能性があります。 反復的で役に立たない専門用語のループにはまり込み、必要な応答を得るために適切なルールをトリガーできず、人間の顧客サービス担当者にアクセスできない場合、金融機関に対する信頼と信頼は低下します。
多くの消費者金融商品やサービスの市場構造を考慮すると、プロバイダーが選ばれる際に人々がより良いサービスを求める交渉力は限られている可能性があります。 たとえば、住宅ローン債権回収会社や信用調査会社を選択する場合、消費者にはほとんど選択肢がありません。 さらに、消費者がより多くの選択肢を持っている市場であっても、顧客サービスなどの特定の機能については金融機関が積極的に競争しない可能性があります。顧客はプロバイダーを選択した後にのみそれらの機能を利用できるため、ある程度固定されているからです。 このような状況では、大幅なコスト削減の機会により、たとえ顧客エクスペリエンスがある程度低下したとしても、チャットボットやその他の自動システムを通じて顧客サポートをルーティングすることが機関に強く奨励される可能性があります。 重要なのは、競争が欠如しているか弱体化している市場では、より良い製品やサービスの形で消費者に還元されるコスト削減の程度が減少することです。
金融機関はさらに進んで、カスタマイズされた人的サポートへのアクセスを削減または排除する可能性があります。 ただし、この削減はサービスの品質と信頼を犠牲にする可能性があります。 このトレードオフは、技術的な可用性が限られているグループや英語の熟練度が限られているグループなど、チャットボットの対話による解決失敗の割合が高い顧客セグメントに特に当てはまります。
チャットボットが消費者金融商品やサービスの市場で失敗すると、顧客の信頼を損なうだけでなく、広範な損害を引き起こす可能性もあります。 人の経済的安定が危険にさらされている場合、間違っている可能性は高くなります。 顧客からの紛争を認識して処理できることは、重要な機能です。 紛争処理は、最悪の結果に陥る前にエラーを迅速に修正するための唯一の有意義な方法である場合があります。 たとえば、消費者金融商品やサービスに関する不正確な情報を提供すると、致命的な結果を招く可能性があります。 不適切な手数料の査定につながり、結果的に顧客が劣悪なオプションや消費者金融商品を選択してしまうなどの債務不履行などの悪い結果につながる可能性があります。
したがって、紛争を認識または解決できないことは、人にとって悲惨な結果を招く可能性があります。 それは機関に対する信頼を損ない、今後問題について助けを求めることを思いとどまらせ、フラストレーションを引き起こして時間の無駄を引き起こし、解決可能な問題を未解決のままにして、マイナスの結果をさらに悪化させる可能性があります。
金融機関による欠陥のあるチャットボットの導入は、顧客を動揺させ、重大な損害を与えるリスクがあり、その責任は金融機関にある可能性があります。
このレポートでは、消費者金融サービスにおけるチャットボットの導入に関連するいくつかの課題に焦点を当てています。 経済全体の部門が「人工知能」ソリューションを顧客サービス業務に統合し続けるにつれて、対面、電話、ライブチャットを通じて提供されるサポートに代わる強力な経済的インセンティブが数多く存在する可能性があります。
チャットボットが不十分で、人によるライブサポートへのアクセスが妨げられると、法律違反、サービスの低下、その他の損害が発生する可能性があります。 リレーションシップ・バンキングからアルゴリズム・バンキングへの移行は、長期的に多くの影響を及ぼし、CFPBは引き続き注意深く監視していく。
CFPB は市場を積極的に監視しており、チャットボットを使用する機関が顧客と法的義務に沿った方法で監視することを期待しています。 CFPB はまた、人間との対話が不足しているために質問への回答を得るのに問題を抱えている人々に対し、CFPB に消費者苦情を提出することを奨励しています。
消費者は、CFPB の Web サイトにアクセスするか、(855) 411-CFPB (2372) に電話することで、金融商品およびサービスに関する苦情を提出できます。
自社が連邦消費者金融法に違反していると思われる企業の従業員は、知っている情報を [email protected] に送信することが推奨されます。
CFPBは、「人工知能」として宣伝されることの多い技術の使用を監視し、消費者の権利を侵害しないよう監視している。
2022 年 12 月 9 日
2022 年 11 月 18 日
2022 年 10 月 31 日
2023 年 6 月 6 日
2023 年 6 月 1 日
2023 年 6 月 1 日
2020年7月17日
2020 年 3 月 10 日
2018 年 12 月 6 日