如何構建有效的道德人工智能

已發表: 2023-03-30

在使用人工智能 (AI) 之前,團隊必須擁有負責任的 AI 框架和工具箱,儘管創新有很多優勢。 人工智能是一種中立的技術; 它既不是本質上道德的,也不是不道德的。 或者,人工智能是一種遵守社會規範和標準的技術。 必須分析哪些限制、限製或標準已經到位或應該建立以支持道德人工智能。

什麼是道德人工智能?

從廣義上講,有道德的 AI 可以定義為數據科學算法,這些算法做出本質上沒有偏見的預測和触發行動——即,不在性別、性取向、種族、語言、殘疾或任何其他人口特徵方面進行歧視——並且還設定更公平的商業決策的基礎。

普華永道確定了道德人工智能的以下屬性:

  • 可解釋性:應該能夠完整地描述他們的決策過程。
  • 可靠性:應在其設計範圍內發揮作用,並產生標準化、可重複的預測和建議。
  • 安全性:應防範網絡風險,尤其是第三方和雲帶來的風險。
  • 問責制:應該特別確定對使用 AI 模型的道德後果負責的所有者。
  • 利益:應優先考慮共同利益,關注可持續性、協作和透明度。
  • 隱私:應該傳播對已獲得和正在使用的數據的認識。
  • 人力機構:應促進更多的人力監督和參與。
  • 合法性:應遵守法律和所有適用的準則。
  • 公平:不應該對個人或團體有偏見。
  • 安全:不應危及個人的身心健康。

不幸的是,道德人工智能並不是默認的行業標準,一些公司在其實施中面臨障礙。 在最近的一項調查中,受訪者認識到道德人工智能的重要性,但兌現這一承諾比看起來要困難得多。 十分之九 (90%) 的高級管理人員同意,創造和使用新技術的道德標準可以為組織提供競爭優勢。 儘管如此,大約三分之二 (64%) 的高管發現其組織使用的人工智能係統存在偏見。

構建道德人工智能的 3 條道路

減輕與數據和人工智能相關的倫理風險的典型方法有三種:學術方法、企業方法和監管方法。 經常出現在哲學系的倫理學家擅長識別倫理難題、它們的起源以及如何圍繞它們進行推理。

接下來是“實地”戰略。 通常,急切的技術專家、數據分析師和產品經理是在組織內部提出重要問題的人。 他們熟悉提出​​與業務相關的風險相關問題,因為他們是創造產品以實現特定業務目標的人。

現在有公司(更不用說政府)實施高水平的人工智能道德規範。 例如,谷歌和微軟多年前就宣布了它們的價值觀。 鑑於數十個行業的企業價值觀的多樣性,信息和人工智能道德政策必須適應組織獨特的商業和法律要求。 作為企業領導者,您可以採取幾個步驟來實現這一目標。

構建有效的道德人工智能的步驟

要從一開始就構建有道德的人工智能(而不是用道德改造現有的人工智能係統),請記住以下步驟:

  1. 定義關於 AI 倫理含義的共同協議

對於所有主要的公司利益相關者,此描述必須準確且實用。 創建跨職能的專家團隊來為所有有關道德 ML 和 AI 的開發、生產和實施的活動提供建議也是一個好主意。

  1. 目錄 AI 對業務系統的影響

開發道德人工智能框架的一個重要組成部分是記錄公司的人工智能使用情況。 該企業正在迅速採用人工智能,特別是在推薦系統、機器人、客戶細分建模、成本引擎和異常檢測的化身中。 定期監控此類 AI 技術及其嵌入的流程或應用程序對於防止對您的公司造成後勤、聲譽和財務威脅至關重要。

  1. 創建適合您所在行業的數據和 AI 道德風險框架。

一個有效的框架在其基礎上包括對公司道德價值觀的闡述、擬議的治理模型以及對如何維護這種配置的描述。 必須建立 KPI 和 QA 程序,以評估道德人工智能方法的持續有效性。

一個全面的框架還闡明了將道德風險管理納入運營。 它應包括向高級領導層或道德委員會報告道德問題的明確程序。

  1. 為產品經理優化道德人工智能指南和工具

儘管您的框架提供了更廣泛層面的指導,但產品層面的建議必須準確。 標準的機器學習算法可以識別人類無法理解的過於復雜的模式。 問題在於,一方面渲染結果可解釋,另一方面渲染結果準確,經常會發生衝突。

產品經理必須能夠做出這種權衡。 如果輸出受到要求解釋的約束,例如當金融機構必須解釋貸款申請被拒絕的原因時,那麼精確性將是必不可少的。 產品經理應該有工具來衡量它在特定用例中的重要性。

  1. 監測影響並讓利益相關者參與

建立企業意識、道德委員會、知識淵博的產品所有者、經理、架構師和數據分析師都是開發過程的組成部分,理想情況下,也是採購過程的組成部分。 由於資源稀缺、時間管理以及更大且明顯的無法預見事情可能出錯的所有方式,因此監控信息和人工智能產品對市場的影響至關重要。

道德人工智能示例:情感分析

整合公平性和包容性的一個很好的例子是情緒評估——為了準備一個 ML 模型來區分文本數據中的正面和負面情緒,必須在社會和語言背景方面提供足夠的訓練數據。

在社會語言學場景中,您使用什麼語言? 您是否正在考慮與您的情感標籤一起存在的更廣泛的文化輸入? 您是否考慮了區域語言差異? 這些問題與道德人工智能的自動語音識別 (ASR) 和自然語言處理 (NLP) 組件有關。

例如,如果您的 ASR 模型僅使用美國英語進行訓練,那麼您在處理其他英語變體時可能會遇到轉錄問題。 在這種情況下,美國英語和澳大利亞英語之間的主要差異包括特定語言情況下 r 的發音和單詞中元音發音的差異,這些都必須包含在 AI 系統中。

合乎道德地使用人工智能

除了構建符合道德規範的 AI 之外,還必須考慮和規範其使用。 當個人因不道德行為而獲得經濟獎勵時,道德標準就會受到破壞。 請記住,系統的不公平應用可能會造成傷害,而不是其不公平、不透明或其他技術特徵。

以 Deepfake 算法為例,這是一種經常用於惡意目的的 AI 技術。 絕大多數在線 deepfakes 都是在未經受害者許可的情況下創建的。 雖然可以確保使用構造 Deepfakes 的生成對抗網絡對所有膚色和性別的人同樣有效,但這些公平性改進/修正是無關緊要的——因為相同的算法正在用於其他更有害的意圖。

道德人工智能必須融入人工智能管道的每一步,從概念化算法到開發,再到長期使用和維護。 正如本文所解釋的那樣,在開發符合道德規範的 AI 以及使用符合規範的數據集進行 AI 模型培訓和用戶教育時,需要遵循五個步驟。