Cum să construiți IA etică care funcționează

Publicat: 2023-03-30

Înainte de a utiliza inteligența artificială (AI), echipele trebuie să aibă un cadru AI responsabil și un set de instrumente, în ciuda numeroaselor avantaje ale inovației. AI este o tehnologie neutră; nu este nici intrinsec etic, nici imoral. Alternativ, AI este o tehnologie care aderă la normele și standardele societății. Este esențial să se analizeze ce restricții, constrângeri sau standarde există sau ar trebui stabilite pentru a sprijini IA etică.

Ce este IA etică?

În linii mari, IA etică poate fi definită ca algoritmi de știință a datelor care fac predicții și declanșează acțiuni care sunt de natură imparțială - adică nu fac discriminări în ceea ce privește sexul, sexualitatea, rasa, limba, dizabilitățile sau orice altă caracteristică demografică - și, de asemenea, stabilesc fundamentele pentru luarea deciziilor de afaceri mai echitabile.

PwC identifică următoarele atribute ale IA etică:

  • Interpretabilitate: ar trebui să poată descrie procesul lor de luare a deciziilor în întregime.
  • Fiabilitate: ar trebui să funcționeze în limitele designului său și să producă predicții și recomandări standardizate, repetabile.
  • Securitate: ar trebui să fie protejată împotriva riscurilor cibernetice, în special a celor prezentate de terți și de cloud.
  • Responsabilitate: ar trebui să fi identificat în mod special proprietarii care sunt responsabili pentru consecințele etice ale utilizării modelelor AI.
  • Beneficiar: ar trebui să acorde prioritate binelui comun, concentrându-se pe durabilitate, colaborare și transparență.
  • Confidențialitate: ar trebui să răspândească gradul de conștientizare cu privire la datele obținute și în uz.
  • Agenția umană: ar trebui să faciliteze mai multă supraveghere și participare umană.
  • Legalitate: ar trebui să respecte legea și toate liniile directoare aplicabile.
  • Corectitudine: nu ar trebui să fie prejudiciat împotriva persoanelor sau a grupurilor.
  • Siguranță: Nu ar trebui să pună în pericol bunăstarea fizică sau psihică a persoanelor.

Din păcate, IA etică NU este standardul industriei în mod implicit, iar mai multe companii se confruntă cu obstacole în implementarea sa. Într-un sondaj recent, respondenții au recunoscut importanța IA etică, dar îndeplinirea acestei promisiuni este mai dificilă decât pare. Nouă din zece (90%) directori de top sunt de acord că standardele morale în crearea și utilizarea noilor tehnologii pot oferi organizațiilor un avantaj competitiv. Cu toate acestea, aproximativ două treimi (64%) dintre directorii de top au observat părtiniri în sistemele AI utilizate de organizația lor.

3 drumuri către construirea unei IA etice

Există trei metodologii tipice pentru atenuarea riscurilor etice asociate datelor și IA: metoda academică, metoda corporativă și metoda de reglementare. Eticienii, care se regăsesc adesea în departamentele de filosofie, sunt buni la identificarea dificultăților etice, originile lor și cum să raționeze în jurul lor.

Urmează strategia „pe teren”. De obicei, tehnologii, analiștii de date și managerii de produs dornici sunt cei care ridică întrebări importante în cadrul organizațiilor. Aceștia sunt familiarizați cu adresarea întrebărilor relevante pentru afaceri legate de risc, deoarece acestea sunt cele care creează produsele pentru atingerea obiectivelor specifice de afaceri.

Acum există corporații (ca să nu mai vorbim de guverne) care implementează norme etice AI la nivel înalt. Google și Microsoft, de exemplu, și-au proclamat valorile cu ani în urmă. Având în vedere diversitatea valorilor corporative din zeci de sectoare, o politică de informare și etica AI trebuie adaptată la cerințele comerciale și legale unice ale organizației. Există mai mulți pași pe care tu, în calitate de lider de afaceri, îi poți face pentru a realiza acest lucru.

Pași pentru construirea unei inteligențe artificiale etice care funcționează

Pentru a construi IA etică de la începuturi, (în loc să modernizați sistemele AI existente cu etică), țineți cont de următorii pași:

  1. Definiți un acord comun asupra a ceea ce înseamnă etica AI

Această descriere trebuie să fie precisă și practică pentru toate părțile interesate corporative cheie. Crearea de echipe interfuncționale de experți care să consilieze toate activitățile despre dezvoltarea, producția și implementarea ML și AI etică este, de asemenea, o idee excelentă.

  1. Catalogați impactul AI asupra sistemelor de afaceri

O componentă esențială a dezvoltării unui cadru etic AI este documentarea utilizării AI de către companie. Compania adoptă rapid AI, în special în avatarul sistemelor de recomandare, roboți, modelarea segmentării clienților, motoarele de stabilire a costurilor și detectarea anomaliilor. Monitorizarea regulată a unor astfel de tehnici AI și a proceselor sau aplicațiilor în care acestea sunt încorporate este crucială pentru prevenirea amenințărilor logistice, reputaționale și financiare la adresa firmei dumneavoastră.

  1. Creați un cadru de risc etic pentru date și inteligență artificială, care este adaptat industriei dvs.

Un cadru eficient include, la baza sa, o articulare a valorilor etice ale companiei, un model de guvernanță propus și o descriere a modului în care această configurație va fi menținută. Este esențial să construim KPI-uri și un program de QA pentru a evalua eficacitatea continuă a unei abordări etice AI.

Un cadru cuprinzător elucidează, de asemenea, încorporarea managementului riscului etic în operațiuni. Ar trebui să includă o procedură clară de raportare a problemelor etice către conducerea superioară sau un comitet de etică.

  1. Optimizați instrucțiunile și instrumentele etice ale AI pentru managerii de produs

Deși cadrul dvs. oferă îndrumări la un nivel mai larg, recomandările la nivel de produs trebuie să fie precise. Algoritmii standard de învățare automată recunosc tiparele prea complexe pentru ca oamenii să le înțeleagă. Problema este că deseori apare un conflict între a oferi rezultate explicabile, pe de o parte, și exacte, pe de altă parte.

Managerii de produs trebuie să poată face acest compromis. Dacă rezultatele sunt supuse unor constrângeri care cer explicații, cum ar fi atunci când instituțiile financiare trebuie să explice de ce a fost respinsă o cerere de împrumut, atunci precizia va fi esențială. Managerii de produs ar trebui să aibă instrumentele pentru a evalua importanța acestuia într-un anumit caz de utilizare.

  1. Monitorizați impactul și implicați părțile interesate

Crearea de conștientizare corporativă, comitete etice, proprietari de produse, manageri, arhitecți și analiști de date cunoscători sunt toate componente ale procesului de dezvoltare și, în mod ideal, ale procedurii de achiziție. Din cauza deficitului de resurse, a gestionării timpului și a incapacității mai mari – și evidente – de a prevedea toate modurile în care lucrurile pot merge prost, este esențial să monitorizăm efectele informațiilor și ale produselor AI pe piață.

Exemplu de IA etică: Analiza sentimentelor

Un exemplu excelent de integrare a corectitudinii și incluziunii este evaluarea sentimentelor - pentru a pregăti un model ML pentru a distinge atât sentimentele pozitive, cât și cele negative în datele textuale, trebuie să oferim date de instruire adecvate în ceea ce privește contextele sociale și lingvistice.

Într-un scenariu sociolingvistic, ce limbă folosești? Vă gândiți la importanța culturală mai largă care va exista în tandem cu etichetele voastre emoționale? Ați ținut cont de variația lingvistică regională? Aceste probleme se referă atât la componentele de recunoaștere automată a vorbirii (ASR), cât și la procesarea limbajului natural (NLP) ale inteligenței artificiale etice.

Dacă modelul dvs. ASR este instruit numai în limba engleză americană, de exemplu, este posibil să întâmpinați probleme de transcriere în timpul procesării altor variante în limba engleză. În acest caz, variațiile majore între engleza americană și australiană includ pronunțarea lui r în anumite situații lingvistice și variațiile de pronunție a vocalelor în cuvinte, care trebuie incluse în sistemul AI.

Folosind AI în mod etic

Dincolo de construirea unei IA etice, utilizarea acesteia trebuie, de asemenea, luată în considerare și reglementată. Când indivizii sunt recompensați financiar pentru acțiuni lipsite de etică, standardele etice sunt subminate. Amintiți-vă, aplicarea neloială a unui sistem poate cauza prejudicii, și nu inechitatea, opacitatea sau alte caracteristici tehnice ale acestuia.

Ca exemplu, luați algoritmii Deepfake, o tehnică AI care este adesea folosită în scopuri rău intenționate. Marea majoritate a deepfake-urilor online sunt create fără permisiunea victimelor. Deși este posibil să ne asigurăm că rețeaua generativă adversară utilizată construcția Deepfakes funcționează la fel de bine pentru persoanele de toate tonurile și genurile de piele, aceste îmbunătățiri/corecții de corectitudine sunt nesemnificative - având în vedere că aceiași algoritmi sunt utilizați pentru alte intenții mai pernicioase.

Inteligența artificială etică trebuie să fie împletită în fiecare pas al conductei de inteligență artificială, chiar din momentul conceptualizării algoritmului până la dezvoltare și utilizarea și întreținerea prelungită. După cum explică acest articol, există cinci pași pe care trebuie să-i urmați atunci când dezvoltați IA etică, împreună cu utilizarea seturilor de date etice pentru formarea modelului AI și educarea utilizatorilor.