機能する倫理的な AI を構築する方法

公開: 2023-03-30

人工知能 (AI) を使用する前に、イノベーションの多くの利点にもかかわらず、チームは責任ある AI フレームワークとツールボックスを用意する必要があります。 AI はニュートラルなテクノロジーです。 それは本質的に倫理的でも不道徳でもありません。 あるいは、AI は社会的規範と標準に準拠するテクノロジーです。 倫理的 AI をサポートするために、どのような制限、制約、または標準が設定されているか、または確立する必要があるかを分析することが不可欠です。

エシカルAIとは?

大まかに言えば、倫理的な AI は、予測を行い、本質的に偏りのないアクションをトリガーするデータ サイエンス アルゴリズムとして定義できます。より公平なビジネス上の意思決定の基盤。

PwC は、倫理的 AI の次の属性を識別します。

  • 解釈可能性:意思決定プロセス全体を説明できる必要があります。
  • 信頼性:設計の境界内で機能し、標準化された反復可能な予測と推奨事項を生成する必要があります。
  • セキュリティ:サイバー リスク、特にサード パーティやクラウドによって引き起こされるリスクから保護する必要があります。
  • 説明責任: AI モデルの使用の倫理的結果に責任を負う所有者を特に特定する必要があります。
  • 有益性:持続可能性、コラボレーション、透明性に焦点を当て、共通の利益を優先する必要があります。
  • プライバシー:取得したデータと使用中のデータに関する認識を広める必要があります。
  • 人間のエージェンシー:人間による監督と参加を促進する必要があります。
  • 合法性:法律および該当するすべてのガイドラインを遵守する必要があります。
  • 公平性:個人またはグループに対して偏見を持たないこと。
  • 安全性:個人の身体的または精神的健康を危険にさらすべきではありません。

残念ながら、倫理的 AI は既定では業界標準ではなく、いくつかの企業はその実装でハードルに直面しています。 最近の調査では、回答者は倫理的な AI の重要性を認識していましたが、この約束を果たすことは思ったよりも困難です。 トップ エグゼクティブの 10 人中 9 人 (90%) は、新しいテクノロジーの作成と使用における道徳的基準が組織に競争力をもたらす可能性があることに同意しています。 それにもかかわらず、経営幹部の約 3 分の 2 (64%) が、組織で使用されている AI システムに偏りがあることを確認しています。

倫理的な AI の構築に向けた 3 つの道

データと AI に関連する倫理的リスクを軽減するための 3 つの典型的な方法論があります: アカデミックな方法、企業の方法、および規制の方法です。 哲学の部門でよく見られる倫理学者は、倫理的な問題、その起源、およびそれらを回避する方法を特定するのが得意です。

次に来るのは「現場」戦略です。 通常、熱心なテクノロジスト、データ アナリスト、プロダクト マネージャーは、組織内で重要な問題を提起します。 彼らは特定のビジネス目標を達成するための製品を作成するため、ビジネス関連のリスク関連の質問をすることに精通しています。

現在、高レベルの AI 倫理規範を実装している企業 (政府は言うまでもありません) があります。 たとえば、Google と Microsoft は、何年も前にその価値を宣言しました。 数十のセクターにわたる企業価値の多様性を考えると、情報と AI の倫理ポリシーは、組織固有の商業的および法的要件に適合させる必要があります。 ビジネス リーダーとして、これを達成するために実行できる手順がいくつかあります。

機能する倫理的な AI を構築するための手順

倫理的な AI を最初から構築するには (既存の AI システムを倫理的に改造するのではなく)、次の手順を念頭に置いてください。

  1. AI の倫理が何を意味するかについて共通の合意を定義する

この説明は、すべての主要な企業関係者にとって正確かつ実用的でなければなりません。 倫理的な ML と AI の開発、生産、実装に関するすべての活動に助言する専門家のクロスファンクショナル チームを作成することも優れたアイデアです。

  1. Catalog AI がビジネス システムに与える影響

倫理的な AI フレームワークを開発する上で不可欠な要素は、会社の AI の使用状況を文書化することです。 このビジネスは、特にレコメンダー システム、ボット、顧客セグメンテーション モデリング、原価計算エンジン、異常検出のアバターに AI を急速に採用しています。 このような AI 技術と、それらが組み込まれているプロセスまたはアプリケーションを定期的に監視することは、会社に対する物流、評判、および財務上の脅威を防ぐために重要です。

  1. 業界に合わせたデータと AI の倫理的リスク フレームワークを作成します。

効果的なフレームワークには、その基盤に、会社の倫理的価値の明確化、提案されたガバナンス モデル、およびこの構成を維持する方法の説明が含まれます。 倫理的な AI アプローチの継続的な有効性を評価するには、KPI と QA プログラムを構築することが不可欠です。

包括的なフレームワークは、倫理的リスク管理の運用への組み込みも明らかにします。 倫理問題を上層部または倫理委員会に報告するための明確な手順を含める必要があります。

  1. プロダクト マネージャー向けの倫理的な AI ガイダンスとツールを最適化する

フレームワークはより広いレベルでのガイダンスを提供しますが、製品レベルでの推奨事項は正確でなければなりません。 標準的な機械学習アルゴリズムは、人間が理解するには複雑すぎるパターンを認識します。 問題は、一方で説明可能なレンダリング結果と他方で正確なレンダリング結果との間で頻繁に競合が発生することです。

プロダクト マネージャーは、このトレードオフを行うことができなければなりません。 金融機関がローン申請が拒否された理由を説明しなければならない場合のように、出力が説明を要求する制約を受ける場合、精度が不可欠になります。 プロダクト マネージャーは、特定のユース ケースにおけるその重要性を評価するためのツールを用意する必要があります。

  1. 影響を監視し、利害関係者を関与させる

企業意識の醸成、倫理委員会、知識豊富な製品所有者、マネージャー、アーキテクト、データ アナリストはすべて、開発プロセスの構成要素であり、理想的には購入手順です。 リソースの不足、時間管理、および物事がうまくいかない可能性があるすべての方法を予測できないというより大きな (そして明らかな) ため、情報と AI 製品が市場に与える影響を監視することが重要です。

エシカル AI の例: 感情分析

公平性と包括性を統合する優れた例は、センチメント評価です。ML モデルを準備して、テキスト データのポジティブなセンチメントとネガティブなセンチメントの両方を区別するには、社会的および言語的コンテキストの観点から適切なトレーニング データを提供する必要があります。

社会言語学的シナリオでは、どの言語を使用しますか? あなたの感情タグと並行して存続する、より広い文化的輸入を考えていますか? 地域の言語の差異を考慮しましたか? これらの問題は、倫理的な人工知能の自動音声認識 (ASR) と自然言語処理 (NLP) コンポーネントの両方に関係しています。

たとえば、ASR モデルが米国英語のみでトレーニングされている場合、他の英語のバリアントを処理しているときに文字起こしの問題が発生する可能性があります。 この例では、アメリカ英語とオーストラリア英語の間の主な違いには、特定の言語状況での r の発音と単語の母音発音の違いが含まれており、これらを AI システムに含める必要があります。

AI を倫理的に使用する

倫理的な AI を構築するだけでなく、その使用についても検討し、規制する必要があります。 個人が非倫理的な行動に対して金銭的に報われると、倫理基準が損なわれます。 システムの不公平な適用は、その不公平性、不透明性、またはその他の技術的特徴ではなく、害を引き起こす可能性があることを忘れないでください。

例として、悪意のある目的でよく使用される AI 技術である Deepfake アルゴリズムを取り上げます。 オンラインのディープフェイクの大部分は、被害者の許可なしに作成されています。 構築された Deepfakes を利用した敵対的生成ネットワークが、すべての肌の色や性別の人々に対して等しくうまく機能することを保証することは可能ですが、これらの公平性の改善/修正は重要ではありません — 同じアルゴリズムが他のより悪意のある意図に使用されていることを考えると.

倫理的 AI は、アルゴリズムの概念化から開発、長期にわたる使用と保守に至るまで、人工知能パイプラインのすべてのステップに織り込む必要があります。 この記事で説明しているように、倫理的な AI を開発する際には、AI モデルのトレーニングとユーザー教育のために倫理的なデータセットを使用する場合に従う必要がある 5 つのステップがあります。