작동하는 윤리적 AI를 구축하는 방법

게시 됨: 2023-03-30

인공 지능(AI)을 사용하기 전에 팀은 혁신의 많은 이점에도 불구하고 책임 있는 AI 프레임워크와 도구 상자를 준비해야 합니다. AI는 중립적인 기술입니다. 본질적으로 윤리적이지도 부도덕하지도 않습니다. 또는 AI는 사회적 규범과 표준을 준수하는 기술입니다. 윤리적 AI를 지원하기 위해 어떤 제한, 제약 또는 표준이 마련되어 있거나 설정해야 하는지 분석하는 것이 필수적입니다.

윤리적 인공지능이란?

대체로 윤리적 AI는 본질적으로 편향되지 않은 예측을 수행하고 행동을 유발하는 데이터 과학 알고리즘으로 정의할 수 있습니다. 보다 공평한 비즈니스 의사 결정을 위한 토대.

PwC는 윤리적 AI의 다음 속성을 식별합니다.

  • 해석 가능성: 의사 결정 과정을 전체적으로 설명할 수 있어야 합니다.
  • 신뢰성: 설계 범위 내에서 작동하고 표준화되고 반복 가능한 예측 및 권장 사항을 생성해야 합니다.
  • 보안: 사이버 위험, 특히 제3자 및 클라우드로 인한 위험으로부터 보호되어야 합니다.
  • 책임: 특히 AI 모델 사용의 윤리적 결과에 책임이 있는 소유자를 식별해야 합니다.
  • 유익성: 지속 가능성, 협업 및 투명성에 초점을 맞춰 공익을 우선시해야 합니다.
  • 개인 정보 보호: 획득한 데이터와 사용 중인 데이터에 대한 인식을 확산해야 합니다.
  • 인간 기관: 더 많은 인간 감독과 참여를 촉진해야 합니다.
  • 합법성: 법과 적용 가능한 모든 지침을 준수해야 합니다.
  • 공정성: 개인이나 집단에 대해 편견을 가져서는 안 됩니다.
  • 안전: 개인의 신체적 또는 정신적 안녕을 위협해서는 안 됩니다.

불행히도 윤리적 AI는 기본적으로 업계 표준이 아니며 여러 회사가 구현에 장애물에 직면해 있습니다. 최근 설문 조사에서 응답자들은 윤리적 AI의 중요성을 인식했지만 이 약속을 이행하는 것은 생각보다 어렵습니다. 10명 중 9명(90%)의 최고 경영진은 신기술의 생성 및 사용에 대한 도덕적 기준이 조직에 경쟁 우위를 제공할 수 있다는 데 동의합니다. 그럼에도 불구하고 최고 경영진의 약 2/3(64%)는 조직에서 사용하는 AI 시스템에서 편견을 관찰했습니다.

윤리적 AI 구축을 위한 3가지 길

데이터 및 AI와 관련된 윤리적 위험을 완화하기 위한 세 가지 일반적인 방법론이 있습니다: 학문적 방법, 기업 방법 및 규제 방법. 철학과에서 흔히 볼 수 있는 윤리학자들은 윤리적 어려움과 그 기원, 그리고 그 문제를 해결하는 방법을 파악하는 데 능숙합니다.

다음은 "현장" 전략입니다. 일반적으로 열성적인 기술자, 데이터 분석가 및 제품 관리자는 조직 내에서 중요한 질문을 제기하는 사람입니다. 이들은 특정 비즈니스 목표를 달성하기 위해 제품을 만드는 사람들이기 때문에 비즈니스 관련 위험 관련 질문을 하는 데 익숙합니다.

이제 높은 수준의 AI 윤리 규범을 구현하는 기업(정부는 말할 것도 없고)이 있습니다. 예를 들어 Google과 Microsoft는 몇 년 전에 그들의 가치를 선언했습니다. 수십 개의 부문에 걸친 기업 가치의 다양성을 고려할 때 정보 및 AI 윤리 정책은 조직의 고유한 상업적 및 법적 요구 사항에 맞게 조정되어야 합니다. 비즈니스 리더로서 이를 달성하기 위해 취할 수 있는 몇 가지 단계가 있습니다.

작동하는 윤리적 AI 구축 단계

처음부터 윤리적인 AI를 구성하려면(기존 AI 시스템을 윤리적으로 개조하는 대신) 다음 단계를 염두에 두십시오.

  1. AI 윤리의 의미에 대한 공통 합의 정의

이 설명은 모든 주요 기업 이해 관계자에게 정확하고 실용적이어야 합니다. 윤리적 ML 및 AI의 개발, 생산 및 구현에 대한 모든 활동에 조언하기 위해 전문가로 구성된 교차 기능 팀을 만드는 것도 훌륭한 아이디어입니다.

  1. Catalog AI가 비즈니스 시스템에 미치는 영향

윤리적 AI 프레임워크 개발의 필수 구성 요소는 회사의 AI 사용을 문서화하는 것입니다. 비즈니스는 특히 추천 시스템, 봇, 고객 세분화 모델링, 비용 엔진 및 이상 감지의 아바타에서 AI를 빠르게 채택하고 있습니다. 이러한 AI 기술과 이러한 기술이 포함된 프로세스 또는 애플리케이션을 정기적으로 모니터링하는 것은 회사에 대한 물류, 평판 및 재정적 위협을 방지하는 데 매우 중요합니다.

  1. 귀사의 산업에 맞는 데이터 및 AI 윤리적 위험 프레임워크를 만드십시오.

효과적인 프레임워크에는 기본적으로 회사의 윤리적 가치에 대한 설명, 제안된 거버넌스 모델 및 이 구성이 유지되는 방법에 대한 설명이 포함됩니다. 윤리적 AI 접근 방식의 지속적인 효과를 평가하기 위해서는 KPI 및 QA 프로그램을 구축하는 것이 필수적입니다.

포괄적인 프레임워크는 또한 윤리적 위험 관리를 운영에 통합하는 것을 설명합니다. 여기에는 고위 경영진이나 윤리 위원회에 윤리적 문제를 보고하는 명확한 절차가 포함되어야 합니다.

  1. 제품 관리자를 위한 윤리적 AI 지침 및 도구 최적화

프레임워크가 더 넓은 수준의 지침을 제공하지만 제품 수준의 권장 사항은 정확해야 합니다. 표준 기계 학습 알고리즘은 인간이 이해하기에는 너무 복잡한 패턴을 인식합니다. 문제는 한편으로는 설명할 수 있는 렌더링 결과와 다른 한편으로는 정확한 렌더링 사이에 자주 충돌이 발생한다는 것입니다.

제품 관리자는 이러한 절충안을 만들 수 있어야 합니다. 금융 기관이 대출 신청이 거부된 이유를 설명해야 하는 경우와 같이 출력에 설명을 요구하는 제약이 있는 경우 정확성이 필수적입니다. 제품 관리자는 특정 사용 사례에서 중요성을 측정할 수 있는 도구를 가지고 있어야 합니다.

  1. 영향 모니터링 및 이해 관계자 참여

기업 인식 제고, 윤리 위원회, 지식이 풍부한 제품 소유자, 관리자, 설계자 및 데이터 분석가는 모두 개발 프로세스의 구성 요소이며 이상적으로는 구매 절차입니다. 자원 부족, 시간 관리, 일이 잘못될 수 있는 모든 방식을 예측할 수 없는 더 크고 명백한 무능력으로 인해 정보 및 AI 제품이 시장에 미치는 영향을 모니터링하는 것이 중요합니다.

윤리적 AI 사례: 감정 분석

공정성과 포괄성을 통합하는 훌륭한 예는 감정 평가입니다. 텍스트 데이터에서 긍정적 감정과 부정적 감정을 모두 구별하기 위해 ML 모델을 준비하려면 사회적 및 언어적 맥락에서 적절한 교육 데이터를 제공해야 합니다.

사회 언어 시나리오에서 어떤 언어를 사용합니까? 감정 태그와 함께 존속할 더 넓은 문화적 수입을 고려하고 있습니까? 지역적 언어 차이를 고려했습니까? 이러한 문제는 윤리적 인공 지능의 자동 음성 인식(ASR) 및 자연어 처리(NLP) 구성 요소 모두와 관련이 있습니다.

예를 들어 ASR 모델이 미국 영어로만 훈련된 경우 다른 영어 변형을 처리하는 동안 전사 문제가 발생할 수 있습니다. 이때 미국식 영어와 호주식 영어의 주요 변이에는 특정 언어 상황에서의 r 발음과 단어의 모음 발음 변이가 포함되며, 이는 AI 시스템에 포함되어야 합니다.

AI를 윤리적으로 사용

윤리적 AI를 구축하는 것 외에도 그 사용을 고려하고 규제해야 합니다. 개인이 비윤리적 행동에 대해 금전적 보상을 받으면 윤리적 기준이 훼손됩니다. 시스템의 불공정한 적용은 불공평성, 불투명성 또는 기타 기술적 특징이 아니라 해를 끼칠 수 있음을 기억하십시오.

악의적인 목적으로 자주 사용되는 AI 기술인 Deepfake 알고리즘을 예로 들어 보겠습니다. 대부분의 온라인 딥페이크는 피해자의 허가 없이 만들어집니다. Deepfakes 구조를 활용하는 생성적 적대적 네트워크가 모든 피부색과 성별의 사람들에게 똑같이 잘 작동하도록 보장할 수 있지만, 이러한 공정성 개선/수정은 중요하지 않습니다.

윤리적 AI는 알고리즘을 개념화하는 시점부터 개발, 장기간 사용 및 유지 관리에 이르기까지 인공 지능 파이프라인의 모든 단계에 짜여져야 합니다. 이 기사에서 설명하는 것처럼 윤리적 AI를 개발할 때 따라야 할 5단계와 AI 모델 교육 및 사용자 교육을 위한 윤리적 데이터 세트 사용이 있습니다.