Come costruire un'intelligenza artificiale etica che funzioni

Pubblicato: 2023-03-30

Prima di utilizzare l'intelligenza artificiale (AI), i team devono disporre di un framework di AI responsabile e di una cassetta degli attrezzi, nonostante i numerosi vantaggi dell'innovazione. L'intelligenza artificiale è una tecnologia neutra; non è né intrinsecamente etico né immorale. In alternativa, l'intelligenza artificiale è una tecnologia che aderisce alle norme e agli standard della società. È essenziale analizzare quali restrizioni, vincoli o standard sono in atto o dovrebbero essere stabiliti per supportare l'IA etica.

Che cos'è l'IA etica?

In generale, l'intelligenza artificiale etica può essere definita come algoritmi di scienza dei dati che fanno previsioni e innescano azioni di natura imparziale - cioè, non discriminano in termini di genere, sessualità, razza, lingua, disabilità o qualsiasi altra caratteristica demografica - e impostano anche le basi per un processo decisionale aziendale più equo.

PwC identifica i seguenti attributi dell'IA etica:

  • Interpretabilità: dovrebbe essere in grado di descrivere il proprio processo decisionale nella sua interezza.
  • Affidabilità: dovrebbe funzionare entro i limiti della sua progettazione e produrre previsioni e raccomandazioni standardizzate e ripetibili.
  • Sicurezza: dovrebbe essere protetta contro i rischi informatici, in particolare quelli posti da terze parti e dal cloud.
  • Responsabilità: dovrebbero essere identificati in particolare i proprietari che sono responsabili delle conseguenze etiche dell'utilizzo dei modelli di intelligenza artificiale.
  • Beneficialità: dovrebbe dare priorità al bene comune, concentrandosi su sostenibilità, collaborazione e trasparenza.
  • Privacy: Dovrebbe diffondere la consapevolezza sui dati ottenuti e in uso.
  • Agenzia umana: dovrebbe facilitare una maggiore supervisione e partecipazione umana.
  • Legalità: dovrebbe rispettare la legge e tutte le linee guida applicabili.
  • Equità: non dovrebbe essere prevenuto nei confronti di individui o gruppi.
  • Sicurezza: non dovrebbe mettere in pericolo il benessere fisico o mentale delle persone.

Sfortunatamente, l'intelligenza artificiale etica NON è lo standard del settore per impostazione predefinita e diverse aziende si trovano ad affrontare ostacoli nella sua implementazione. In un recente sondaggio, gli intervistati hanno riconosciuto l'importanza dell'IA etica, ma mantenere questa promessa è più difficile di quanto sembri. Nove alti dirigenti su dieci (90%) concordano sul fatto che gli standard morali nella creazione e nell'uso di nuove tecnologie possono fornire alle organizzazioni un vantaggio competitivo. Tuttavia, circa due terzi (64%) dei dirigenti di alto livello hanno osservato distorsioni nei sistemi di intelligenza artificiale utilizzati dalla propria organizzazione.

3 Strade verso la creazione di un'IA etica

Esistono tre metodologie tipiche per mitigare i rischi etici associati ai dati e all'intelligenza artificiale: il metodo accademico, il metodo aziendale e il metodo normativo. Gli esperti di etica, che si trovano spesso nei dipartimenti di filosofia, sono bravi a identificare le difficoltà etiche, le loro origini e come ragionarci intorno.

La strategia "sul campo" viene dopo. In genere, i tecnologi entusiasti, gli analisti di dati e i product manager sono quelli che sollevano domande importanti all'interno delle organizzazioni. Hanno familiarità con le domande relative al rischio rilevanti per l'azienda poiché sono loro che creano i prodotti per raggiungere obiettivi aziendali specifici.

Ora ci sono aziende (per non parlare dei governi) che implementano norme etiche di alto livello sull'IA. Google e Microsoft, ad esempio, hanno proclamato i loro valori anni fa. Data la diversità dei valori aziendali in dozzine di settori, una politica etica dell'informazione e dell'IA deve essere adattata ai requisiti commerciali e legali unici dell'organizzazione. Ci sono diversi passaggi che tu, in qualità di leader aziendale, puoi intraprendere per raggiungere questo obiettivo.

Passi per costruire un'IA etica che funzioni

Per costruire un'intelligenza artificiale etica fin dall'inizio (piuttosto che aggiornare i sistemi di intelligenza artificiale esistenti con l'etica), tieni presente i seguenti passaggi:

  1. Definire un accordo comune su cosa significhi l'etica dell'IA

Questa descrizione deve essere precisa e pratica per tutti i principali stakeholder aziendali. Anche la creazione di team interfunzionali di esperti per consigliare tutte le attività relative allo sviluppo, alla produzione e all'implementazione di ML e AI etici è un'ottima idea.

  1. L'impatto di Catalog AI sui sistemi aziendali

Una componente essenziale dello sviluppo di un framework di IA etico è la documentazione dell'utilizzo dell'IA da parte dell'azienda. L'azienda sta rapidamente adottando l'intelligenza artificiale, in particolare nell'avatar di sistemi di raccomandazione, bot, modellazione della segmentazione dei clienti, motori di determinazione dei costi e rilevamento delle anomalie. Il monitoraggio regolare di tali tecniche di intelligenza artificiale e dei processi o delle applicazioni in cui sono incorporate è fondamentale per prevenire minacce logistiche, reputazionali e finanziarie alla tua azienda.

  1. Crea un framework di rischio etico per i dati e l'IA su misura per il tuo settore.

Un quadro efficace include, alla sua base, un'articolazione dei valori etici dell'azienda, un modello di governance proposto e una descrizione di come questa configurazione sarà mantenuta. È essenziale costruire KPI e un programma di QA per valutare l'efficacia continua di un approccio AI etico.

Un quadro completo chiarisce anche l'incorporazione della gestione etica del rischio nelle operazioni. Dovrebbe includere una procedura chiara per segnalare questioni etiche alla dirigenza senior oa un comitato etico.

  1. Ottimizza la guida e gli strumenti di intelligenza artificiale etica per i product manager

Sebbene il framework fornisca indicazioni a un livello più ampio, le raccomandazioni a livello di prodotto devono essere precise. Gli algoritmi standard di apprendimento automatico riconoscono schemi troppo complessi per essere compresi dagli esseri umani. Il problema è che spesso sorge un conflitto tra rendere i risultati spiegabili da un lato e accurati dall'altro.

I product manager devono essere in grado di fare questo compromesso. Se i risultati sono soggetti a vincoli che richiedono spiegazioni, come quando le istituzioni finanziarie devono spiegare perché una richiesta di prestito è stata respinta, allora la precisione sarà essenziale. I product manager dovrebbero avere gli strumenti per valutarne l'importanza in un particolare caso d'uso.

  1. Monitorare gli impatti e coinvolgere le parti interessate

Creare consapevolezza aziendale, comitati etici, proprietari di prodotti informati, manager, architetti e analisti di dati sono tutti componenti del processo di sviluppo e, idealmente, della procedura di acquisto. A causa della scarsità di risorse, della gestione del tempo e di una maggiore - ed evidente - incapacità di prevedere tutti i modi in cui le cose potrebbero andare storte, è fondamentale monitorare gli effetti delle informazioni e dei prodotti di intelligenza artificiale sul mercato.

Esempio di intelligenza artificiale etica: analisi del sentiment

Un eccellente esempio di integrazione di equità e inclusività è la valutazione del sentiment: per preparare un modello ML per distinguere il sentiment sia positivo che negativo nei dati testuali, è necessario offrire dati di formazione adeguati in termini di contesti sociali e linguistici.

In uno scenario sociolinguistico, quale lingua utilizzi? Stai considerando l'importanza culturale più ampia che sussisterà in tandem con i tuoi tag emotivi? Avete preso in considerazione la varianza linguistica regionale? Questi problemi riguardano sia il riconoscimento vocale automatizzato (ASR) che l'elaborazione del linguaggio naturale (NLP) componenti dell'intelligenza artificiale etica.

Se il tuo modello ASR è addestrato solo in inglese americano, ad esempio, potresti riscontrare problemi di trascrizione durante l'elaborazione di altre varianti inglesi. In questo caso, le principali variazioni tra l'inglese americano e quello australiano includono la pronuncia di r in particolari situazioni linguistiche e le variazioni di pronuncia delle vocali nelle parole, che devono essere incluse nel sistema AI.

Usare l'intelligenza artificiale in modo etico

Oltre a costruire un'IA etica, anche il suo utilizzo deve essere considerato e regolamentato. Quando gli individui vengono ricompensati finanziariamente per azioni non etiche, gli standard etici vengono minati. Ricorda, l'applicazione scorretta di un sistema può causare danni, e non la sua iniquità, opacità o altre caratteristiche tecniche.

Ad esempio, prendi gli algoritmi Deepfake, una tecnica di intelligenza artificiale che viene spesso utilizzata per scopi dannosi. La stragrande maggioranza dei deepfake online viene creata senza il permesso delle vittime. Sebbene sia possibile garantire che la rete generativa avversaria utilizzata costrutto Deepfakes funzioni ugualmente bene su persone di tutte le tonalità della pelle e di tutti i sessi, questi miglioramenti/correzioni di equità sono irrilevanti, dato che gli stessi algoritmi sono utilizzati per altri intenti più perniciosi.

L'intelligenza artificiale etica deve essere intessuta in ogni fase della pipeline dell'intelligenza artificiale, dal momento della concettualizzazione dell'algoritmo allo sviluppo, all'uso e alla manutenzione prolungati. Come spiega questo articolo, ci sono cinque passaggi da seguire quando si sviluppa un'IA etica, insieme all'utilizzo di set di dati etici per la formazione del modello di intelligenza artificiale e l'educazione degli utenti.