AI 기반 고객 경험 보호: AI와 사이버 보안의 통합

게시 됨: 2024-01-24

오늘날 조직은 인공 지능을 대규모로 점진적으로 채택하고 통합하여 매일 업무 방식을 변화시키고 있습니다.

AI는 장기적으로 고객 서비스 운영을 변화시키는 동시에 회사에 매력적인 새로운 기회를 제공할 수 있습니다. 새로운 연구에 따르면 생성 인공 지능(AI) 도구를 사용할 수 있는 개인은 그렇지 않은 개인보다 14% 더 나은 결과를 얻었으며 마케팅 기술에서 AI는 이제 중요한 역할을 했습니다.

그러나 큰 질문은 남아 있습니다. 정보 보안 및 신뢰에 대한 우려를 어떻게 처리할 계획입니까?

기업은 안전하고 윤리적인 데이터 활용이라는 복잡한 환경을 탐색하면서 AI의 잠재력을 활용하기를 열망하고 있다는 점을 기억하십시오. 이로 인해 고객 경험을 강화하는 경우에도 AI 사이버 보안이 주요 고려 사항이 됩니다.

고객 데이터 관리 시 AI와 사이버 보안의 교차점

최근 조사에 참여한 영업, 서비스, 마케팅, 상거래 전문가 중 73%가 생성 AI가 새로운 보안 위험을 가져온다고 답했습니다. AI를 구현하려는 사람 중 60% 이상이 중요한 데이터를 보호하면서 이를 안전하게 수행하는 방법을 찾아야 합니다. 앞서 언급한 위험은 의료 및 금융 서비스와 같이 규제가 엄격한 부문에서 특히 중요합니다.

고객이 점점 더 상호 연결되는 세상에서 다양한 플랫폼을 통해 비즈니스에 참여함에 따라 조직이 풍부한 고객 정보를 축적한다는 것은 부인할 수 없는 사실입니다.

그러나 개인 식별 정보(PII), 개인 건강 정보(PHI), 개인 식별 금융 정보(PIFI) 등 자신이 수집한 데이터를 보호할 법적 의무가 있습니다. 개인.

보안 침해는 단순히 규정 위반 사건이 아니라 고객 신뢰와 시장 호의를 지울 수 없을 정도로 침식합니다. 예를 들어, 금융 서비스 회사인 Equifax는 고객 데이터가 손상되도록 허용한 후 시장에서 회복하는 데 거의 1년이 걸렸습니다.

이러한 과제는 생성 AI의 맥락에서 더욱 악화됩니다. Gen AI는 훈련 데이터와 맥락적으로 유사한 새로운 데이터를 생성합니다. 따라서 이 자료에는 민감한 정보가 포함되어서는 안 됩니다.

AI 사이버 보안 및 개인 정보 보호에 중점을 두지 않으면 의도치 않게 개인의 PII를 위반하는 콘텐츠를 생성할 가능성이 여전히 높습니다.

마케팅 리더가 알아야 할 AI 기반 시스템의 주요 사이버 보안 위험

AI를 소비자 경험에 통합하면 여러 가지 이점이 있지만 여러 가지 사이버 보안 위험이 따릅니다. 이것들은 :

1. 데이터 개인정보 보호 및 보호 문제

수집, 분석 및 저장되는 개인 정보는 AI 알고리즘의 성능에 매우 중요할 수 있습니다. 그러나 AI에 대한 사이버 보안 조치가 없으면 불법 공개가 가능합니다. 테스트되지 않은 코드 인스턴스로 인해 챗봇이 실시간 대화에 참여하는 동안 개별 사용자의 구매 내역을 다른 사용자에게 표시할 수 있습니다. 이는 개인 정보 보호 규정을 크게 침해합니다.

안전하지 않거나 취약한 AI 시스템은 해커에게 풍부한 소비자 정보를 제공할 수 있습니다. 저장하는 소비자 데이터의 암호화를 개선해야 하거나 액세스 제어가 시행되지 않는 시나리오를 상상해 보세요. 이것이 바로 브랜드의 42%가 2023년 가장 중요한 과제로 사이버 보안과 고객 만족도의 균형을 고려하는 이유입니다.

2. AI 특정 공격에 대한 취약성

AI 고객 경험이 일반화됨에 따라 악의적인 행위자는 약간 뒤처집니다. 데이터 중독의 일반적인 예는 기계 학습 및 딥 러닝용 모델을 훈련하는 데 사용되는 데이터를 조작하거나 손상시키는 것입니다. 때때로 "모델 중독" 이라고 불리는 이 공격은 AI의 출력과 의사 결정의 정확성을 손상시키려고 시도합니다.

마찬가지로, 적대적 공격은 고객 데이터 운영을 위협할 수 있습니다. 육안으로는 양호한 상태로 보이지만 기계 학습 워크플로에서는 부정확한 분류로 이어지는 데이터 세트를 생성합니다. 해커는 AI/ML 오분류로 이어지는 조작된 "노이즈" 형태로 공격을 시작하여 이를 달성합니다.

유출 공격은 상황을 악화시킵니다. 훈련 데이터를 훔치는 데 사용될 수 있습니다. 예를 들어, 악의적인 개인이 데이터 세트에 액세스하여 데이터를 잘못 배치하거나 전송하거나 빼돌리는 행위를 진행합니다. 또한 Gen AI 모델의 예측 가능성이 높아짐에 따라 특정 프롬프트로 인해 의도하지 않은 추가 정보가 공개될 수 있습니다.

3. 규정 준수 및 규제 문제

잠재된 편견이 있는 개인으로부터 입력을 받는 AI는 편향된 프로그래밍을 생성하여 규정을 준수하지 않는 위험을 초래하고 잠재적으로 재무 성과에 해를 끼칠 수 있습니다. 예를 들어 Amazon이 후보자 선별을 위해 AI 프레임워크를 구현했을 때 알고리즘은 남성 후보자가 제출한 이력서에 대한 편견을 보여주었습니다.

AI 고객 경험의 경우 고가 구매를 한 소비자가 제공한 데이터를 주로 학습하여 제품 문의에 응답할 수 있는 챗봇을 생각해 보세요. 챗봇은 저렴하고 저렴한 제품에 대한 고객 문의에 답변하기 위해 간단하고 도움이 되지 않는 설명을 제공할 수 있습니다.

차별적이고 편향된(의도적이든 아니든) 기술은 회사의 규정 준수 상태와 재무 성과에 심각한 해를 끼칠 수 있습니다. 게다가 AI는 비윤리적으로 활용될 수 있는 엄청난 잠재력을 갖고 있습니다. 즉, 조직이 독점 금지 책임에 노출되는 결정을 내릴 수 있다는 의미입니다.

예를 들어, 조직이 가격 결정에 AI를 활용하기로 잘못 선택한 경우 건전한 시장 경쟁을 방해하고 규제 조사를 받고 처벌을 받을 수 있습니다.

AI 고객 경험 시스템 보호를 위한 모범 사례

다행스럽게도 AI 사이버 보안과 관련된 과제를 극복하는 것은 불가능하지 않으며, 적절한 조치에 투자함으로써 브랜드는 고객 운영에서 인공 지능의 힘을 계속해서 활용할 수 있습니다.

1. 보다 강력한 액세스 제어 구현

기업은 고객 기록 및 AI 앱에 대한 무단 액세스를 방지하기 위해 역할 기반 액세스 제어 및 사용자 확인 프로세스를 설정해야 합니다. 여기에는 시간 제한 비밀번호, 다단계 인증 및 대부분의 사소한 권한 정책과 같은 액세스를 제한하는 단계를 구현하는 것이 포함됩니다.

2. 이동 중인 고객 데이터와 저장 중인 고객 데이터를 암호화합니다.

암호화는 AI 애플리케이션과의 전송 전반에 걸쳐 수명주기의 모든 단계에서 데이터를 보호합니다. 예를 들어 TLS와 SSL은 전송 프로토콜에 널리 사용됩니다. 저장된 데이터를 더욱 안전하게 보호하기 위해 기업은 AI 교육 데이터 세트를 포함한 파일 암호화 또는 데이터베이스 암호화 전략을 구현할 수 있습니다.

3. 기밀 클라우드 컴퓨팅 채택

기밀 클라우드 컴퓨팅은 데이터가 처리되는 동안에도 데이터를 보호할 수 있습니다. 이는 AI 고객 경험에 매우 중요합니다. 이러한 보호 장치는 신뢰할 수 있는 실행 환경 및 동형 암호화와 같은 알고리즘 전략을 사용하여 처리 단계에 관계없이 데이터 안전과 개인 정보 보호를 보장합니다.

3. 생성 AI 시스템에서 독성 감지 테스트 및 접지 수행

독성 감지는 증오심 표현, 부정적인 고정관념 등 유해한 콘텐츠를 감지할 수 있는 방법입니다. 기계 학습(ML) 모델을 사용하여 LLM이 제공한 응답을 분석하고 순위를 매기면 세대에 관계없이 모든 출력이 비즈니스 관점에서 생산적이 되도록 보장됩니다.

또한 동적 접지는 실제 데이터와 관련 맥락에서 모델을 "접근" 함으로써 가장 최근의 정확한 데이터로 LLM의 응답을 안내합니다. 이는 현실이나 사실에 근거하지 않은 잘못된 응답 또는 "AI 환각"을 배제합니다.

4. 엄격한 데이터 보존 정책 시행

조직은 BAU 고객 운영에 필요한 만큼만 고객 데이터를 보관해야 합니다. 소비자 데이터에 대한 보존 정책을 활용하면 무단 액세스 및 AI 사이버 보안 위반 위험을 상쇄할 수 있습니다. 이를 통해 개인 정보 보호를 강화하는 동시에 GDPR, HIPAA, CCPA 등과 같은 중요한 데이터 보호법을 준수할 수 있습니다.

5. AI 훈련 데이터 세트를 구성할 때 마스킹을 연습하세요.

개인 데이터를 보호하고 법적 규정을 준수하기 위해 데이터 마스킹 중에 민감한 기밀 정보 대신 익명화된 데이터가 사용됩니다. AI 모델을 훈련할 때 데이터 마스킹은 이름, 전화번호, 주소 등 모든 개인 식별 정보가 제거되었는지 확인하는 데 도움이 될 수 있습니다. 이는 잠재적인 해커에 대한 페이로드를 줄여 AI 사이버 보안에 도움이 될 뿐만 아니라 편견을 줄일 수도 있습니다.

AI 시스템에 대한 소비자 신뢰 구축

한때 사람들이 전자상거래를 불신했다는 것은 상상할 수 없는 일입니다! 연간 1조 달러 규모의 산업이 널리 채택되기 전에 많은 일반 소비자는 기밀 및 금융 데이터 안전에 대해 우려를 품었습니다. 새로운 아이디어가 결실을 맺는 데 필수적인, 어떤 면에서는 무형의(그러나 필수적인) 요소인 신뢰 부족이 있었습니다.

신뢰는 기업과 소비자가 인공 지능, 특히 생성 AI의 부상을 성공적으로 수용하는 정도를 결정합니다.

일부 기업에서는 편견 제거, 데이터 보호 보장, 24시간 투명성 제공이라는 어려운 작업을 수행하지 않고 CX 이니셔티브를 혁신하려고 시도할 수도 있습니다.

그러나 이러한 노력은 사람들(직원 또는 고객)이 AI의 놀라운 혁신적 힘을 어떻게 믿고 AI 고객 경험을 통해 조직이 최대 ROI를 얻을 수 있는지 정확하게 결정합니다.

다음으로, 비즈니스 리더를 위한 민주화되고 운영되며 책임 있는 AI 및 ML에 관한 AWS 백서를 읽어보세요 . 이 기사를 귀하의 네트워크와 공유하려면 상단의 소셜 미디어 버튼을 클릭하십시오.

다음으로, 비즈니스 리더를 위한 민주화되고 운영되며 책임 있는 AI 및 ML에 관한 AWS 백서를 읽어보세요 . 이 기사를 귀하의 네트워크와 공유하려면 상단의 소셜 미디어 버튼을 클릭하십시오.