AI 主導の顧客エクスペリエンスの確保: AI とサイバーセキュリティの統合

公開: 2024-01-24

現在、組織は大規模な人工知能の導入と統合を進めており、日々の働き方が変化しています。

AI は長期的には顧客サービス業務を変革し、企業に魅力的な新しい機会を提供します。 新しい調査によると、生成型人工知能 (AI) ツールを使用できる人は、使用できない人よりも 14% 良い成績を収めており、マーケティング テクノロジーにおける AI は今や重要な要素となっています。

しかし、情報セキュリティと信頼に関する懸念にどのように対処するつもりなのかという大きな疑問が残ります。

企業は、安全かつ倫理的なデータ利用という複雑な状況を乗り越えながら、AI の可能性を活用することに熱心であることを忘れないでください。 このため、顧客エクスペリエンスを強化する場合でも、AI サイバーセキュリティが重要な考慮事項となります。

顧客データ管理における AI とサイバーセキュリティの交差点

最近調査した販売、サービス、マーケティング、コマースの専門家の 73% は、生成 AI が新たなセキュリティ リスクをもたらすと回答しました。 AI を実装しようとしている人の 60% 以上は、機密データを保護しながら安全に実装する方法を見つけ出す必要があります。 前述のリスクは、医療や金融サービスなど、規制の厳しい分野で特に重大です。

相互接続がますます進む世界では、顧客がさまざまなプラットフォームを介してビジネスに関与するため、組織が大量の顧客情報を蓄積していることは否定できません。

ただし、個人を特定できる情報 (PII)、個人健康情報 (PHI)、個人を特定できる財務情報 (PIFI) など、収集したデータを保護する法的義務があり、これらはすべて個人の特定や位置特定に使用される可能性があります。個人。

セキュリティ侵害は単なるコンプライアンス違反ではなく、顧客の信頼と市場の信頼を永久に損ないます。 たとえば、金融サービス会社 Equifax は、顧客データの漏洩を許してしまった後、市場で回復するまでに 1 年近くかかりました。

この課題は、生成 AI の文脈ではさらに悪化します。 Gen AI は、トレーニング データに似た文脈の新しいデータを生成します。 したがって、この資料には機密情報を含めてはなりません。

AI のサイバーセキュリティとプライバシーに重点を置かないと、意図せずに個人の PII を侵害するコンテンツが生成される可能性が依然として高くなります。

マーケティングリーダーが知っておくべきAI駆動システムにおける主要なサイバーセキュリティリスク

AI を消費者エクスペリエンスに統合すると、いくつかの利点がありますが、いくつかのサイバーセキュリティ リスクが生じます。 これらは :

1. データのプライバシーと保護に関する懸念

収集、分析、保存された個人情報は、AI アルゴリズムのパフォーマンスにとって重要であることが判明する可能性があります。 ただし、AI に対するサイバーセキュリティ対策が講じられていない場合、不正な開示が行われる可能性があります。 テストされていないコードのインスタンスにより、チャットボットがライブ会話中に個別のユーザーの購入履歴を別のユーザーに表示する可能性があります。 これはプライバシー規制に著しく違反します。

AI システムが安全でない、または脆弱であれば、ハッカーに豊富な消費者情報を提供する可能性があります。 保存している消費者データの暗号化を改善する必要があるか、アクセス制御が適用されていないシナリオを想像してください。 これが、ブランドの 42% が、サイバーセキュリティと顧客満足度のバランスを 2023 年の最も重要な課題と考えている理由です。

2. AI 特有の攻撃に対する脆弱性

AI によるカスタマー エクスペリエンスがより一般的になるにつれて、悪意のある攻撃者はわずかに遅れをとっています。 データポイズニングの典型的な例は、機械学習やディープラーニングのモデルをトレーニングするために使用されるデータを操作または破損することです。 「モデルポイズニング」とも呼ばれるこの攻撃は、AI の出力と意思決定の精度を侵害しようとします。

同様に、敵対的な攻撃によって顧客データの運用が脅かされる可能性があります。 肉眼では良好な状態に見えるデータセットが生成されますが、機械学習ワークフローでは不正確な分類につながります。 ハッカーは、捏造された「ノイズ」の形で攻撃を開始することでこれを達成し、AI/ML の誤分類につながります。

窃盗攻撃が状況を悪化させます。 これらはトレーニング データを盗むために使用される可能性があります。 たとえば、悪意のある個人がデータセットにアクセスし、データを置き忘れたり、転送したり、吸い上げたりします。 また、生成 AI モデルの予測可能性が高まるにつれて、特定のプロンプトが意図しない追加情報の開示につながる可能性があります。

3. コンプライアンスと規制上の課題

潜在的な偏見を持つ個人からの入力を受け取る AI は、歪んだプログラミングを生成し、コンプライアンス違反のリスクを引き起こし、潜在的に財務パフォーマンスに悪影響を与える可能性があります。 たとえば、Amazon が候補者のスクリーニングに AI フレームワークを実装したとき、アルゴリズムは男性の候補者が提出した履歴書に偏りがあることを示しました。

AI カスタマー エクスペリエンスの場合、製品に関する問い合わせに応答できるように、高額商品を購入した消費者から提供されたデータを使用して主にトレーニングされたチャットボットを考えてください。 チャットボットは、安価で手頃な価格の製品に関する顧客の問い合わせに答えるために、簡潔であまり役に立たない説明を提供する場合があります。

差別的で偏った(意図的か否かにかかわらず)テクノロジーは、企業のコンプライアンス状況や財務実績に重大な損害を引き起こす可能性があります。 さらに、AI は非倫理的に利用される可能性が非常に高く、組織が独禁法上の責任にさらされるような決定を下す可能性があります。

たとえば、組織が価格設定の決定に AI を活用することを誤って選択した場合、健全な市場競争が混乱し、規制当局の監視が集まり、罰則を受ける可能性があります。

AI カスタマー エクスペリエンス システムを保護するためのベスト プラクティス

幸いなことに、AI サイバーセキュリティに関する課題を克服することは不可能ではなく、適切な対策に投資することで、ブランドは顧客業務において人工知能の力から引き続き恩恵を受けることができます。

1. より堅牢なアクセス制御を実装する

企業は、顧客記録や AI アプリへの不正アクセスを防ぐために、役割ベースのアクセス制御とユーザー検証プロセスを設定する必要があります。 これには、期限付きパスワード、多要素認証、ほとんどのマイナー特権ポリシーなど、アクセスを制限する手順の実装が含まれます。

2. 移動中および保存中の顧客データを暗号化する

暗号化は、AI アプリケーションとの間の転送など、ライフサイクルのあらゆる段階でデータを保護します。 たとえば、TLS と SSL は転送プロトコルで広く使用されています。 保管データをさらに保護するために、企業は AI トレーニング データセットを含むファイル暗号化またはデータベース暗号化戦略を実装できます。

3. 機密性の高いクラウド コンピューティングを採用する

機密性の高いクラウド コンピューティングにより、処理中であってもデータを保護できます。 このため、AI の顧客エクスペリエンスにとって非常に重要になります。 これらの保護手段は、信頼できる実行環境や準同型暗号化などのアルゴリズム戦略を使用して、処理段階に関係なくデータの安全性とプライバシーを保証します。

3. 生成 AI システムで毒性検出テストとグラウンディングを実施する

有害性の検出は、ヘイトスピーチや否定的な固定観念などの有害なコンテンツを検出できる方法です。 機械学習 (ML) モデルを使用して、LLM によって提供される応答を分析してランク付けすることで、世代に関係なく、ビジネスの観点から生産的な出力が保証されます。

さらに、実際のデータと関連するコンテキストでモデルを「グラウンディング」することにより、動的グラウンディングにより、最新かつ正確なデータを使用して LLM の応答がガイドされます。 これにより、現実や事実、あるいは「AI の幻覚」に基づいていない誤った応答が排除されます。

4. 厳格なデータ保持ポリシーを適用する

組織は、最大でも BAU の顧客業務に必要な範囲で顧客データを保持する必要があります。 消費者データの保持ポリシーを利用すると、不正アクセスや AI サイバーセキュリティ違反のリスクが相殺されます。 これにより、プライバシーを強化しながら、GDPR、HIPAA、CCPA などの重要なデータ保護法への準拠が保証されます。

5. AI トレーニング データセットを作成するときにマスキングを練習する

匿名化されたデータは、個人データを保護し、法的規制に準拠するために、データマスキング中に機密情報の代わりに使用されます。 AI モデルをトレーニングする場合、データ マスキングは、名前、電話番号、住所などの個人を特定できる情報がすべて削除されていることを確認するのに役立ちます。 これは(潜在的なハッカーのペイロードを縮小することで)AI サイバーセキュリティに役立つだけでなく、偏見も減らすことができます。

AI システムに対する消費者の信頼を構築する

かつて人々が電子商取引に不信感を抱いていたとは想像もできません。 年間 1 兆ドル規模の産業が広く普及する前は、多くの一般消費者が機密データや財務データの安全性について不安を抱いていました。 信頼の欠如がありました。これは、新しいアイデアが実を結ぶために不可欠な、ある意味では目に見えない(しかし不可欠な)要素です。

信頼によって、企業と消費者が人工知能、特に生成 AI の台頭をどの程度うまく受け入れることができるかが決まります。

一部の企業は、偏見の排除、データ保護の保証、24 時間の透明性の提供という困難な作業を実行せずに、CX への取り組みを変革しようとしているかもしれません。

ただし、この取り組みは、人々 (従業員または顧客) が AI の驚異的な変革力をどのように信じ、AI カスタマー エクスペリエンスから組織が最大の ROI を獲得するかを正確に決定します。

次に、ビジネスリーダー向けの民主化され運用化された責任ある AI と MLに関する AWS ホワイトペーパーを読んでください この記事をネットワークで共有するには、上部のソーシャル メディア ボタンをクリックしてください。

次に、ビジネスリーダー向けの民主化、運用化、責任ある AI と MLに関する AWS ホワイトペーパーを読んでください この記事をネットワークで共有するには、上部のソーシャル メディア ボタンをクリックしてください。