Jak zbudować etyczną sztuczną inteligencję, która działa

Opublikowany: 2023-03-30

Przed użyciem sztucznej inteligencji (AI) zespoły muszą mieć odpowiedzialne ramy AI i zestaw narzędzi, niezależnie od wielu zalet innowacji. AI to neutralna technologia; nie jest ani wewnętrznie etyczny, ani niemoralny. Alternatywnie, sztuczna inteligencja to technologia zgodna z normami i standardami społecznymi. Niezbędne jest przeanalizowanie, jakie ograniczenia, ograniczenia lub standardy istnieją lub należy ustanowić w celu wspierania etycznej sztucznej inteligencji.

Czym jest etyczna sztuczna inteligencja?

Ogólnie rzecz biorąc, etyczną sztuczną inteligencję można zdefiniować jako algorytmy analizy danych, które dokonują prognoz i uruchamiają działania, które są z natury bezstronne — tj. nie dyskryminują pod względem płci, seksualności, rasy, języka, niepełnosprawności ani żadnych innych cech demograficznych — a także ustala podstawy bardziej sprawiedliwego podejmowania decyzji biznesowych.

PwC identyfikuje następujące atrybuty etycznej sztucznej inteligencji:

  • Interpretowalność: Powinien być w stanie opisać swój proces decyzyjny w całości.
  • Niezawodność: powinna działać w granicach swojego projektu i generować znormalizowane, powtarzalne prognozy i zalecenia.
  • Bezpieczeństwo: należy zabezpieczyć przed zagrożeniami cybernetycznymi, w szczególności stwarzanymi przez strony trzecie i chmurę.
  • Odpowiedzialność: Powinien mieć szczególnie określonych właścicieli, którzy są odpowiedzialni za etyczne konsekwencje korzystania z modeli AI.
  • Korzyść: Powinien stawiać na pierwszym miejscu dobro wspólne, skupiając się na zrównoważonym rozwoju, współpracy i przejrzystości.
  • Prywatność: Należy rozpowszechniać wiedzę na temat uzyskanych i wykorzystywanych danych.
  • Ludzka sprawczość: powinna ułatwiać większy nadzór i udział człowieka.
  • Zgodność z prawem: Należy przestrzegać prawa i wszystkich obowiązujących wytycznych.
  • Uczciwość: Nie należy stawiać uprzedzeń wobec jednostek lub grup.
  • Bezpieczeństwo: nie powinno zagrażać fizycznemu ani psychicznemu samopoczuciu osób.

Niestety, etyczna sztuczna inteligencja NIE jest domyślnie standardem branżowym, a kilka firm napotyka przeszkody w jej wdrażaniu. W niedawnej ankiecie respondenci uznali znaczenie etycznej sztucznej inteligencji, ale dotrzymanie tej obietnicy jest trudniejsze niż się wydaje. Dziewięciu na dziesięciu (90%) menedżerów najwyższego szczebla zgadza się, że standardy moralne w tworzeniu i wykorzystywaniu nowych technologii mogą zapewnić organizacjom przewagę konkurencyjną. Niemniej jednak około dwie trzecie (64%) kadry kierowniczej najwyższego szczebla zauważyło stronniczość w systemach sztucznej inteligencji używanych przez ich organizacje.

3 drogi do budowania etycznej sztucznej inteligencji

Istnieją trzy typowe metody łagodzenia ryzyka etycznego związanego z danymi i sztuczną inteligencją: metoda akademicka, metoda korporacyjna i metoda regulacyjna. Etycy, których często spotyka się na wydziałach filozofii, są dobrzy w identyfikowaniu problemów etycznych, ich pochodzeniu i sposobach rozumowania wokół nich.

Następna jest strategia „w terenie”. Zazwyczaj zapaleni technolodzy, analitycy danych i menedżerowie produktów zadają ważne pytania wewnątrz organizacji. Są zaznajomieni z zadawaniem pytań związanych z ryzykiem biznesowym, ponieważ to oni tworzą produkty, aby osiągnąć określone cele biznesowe.

Obecnie istnieją korporacje (nie wspominając o rządach) wdrażające wysokie normy etyczne AI. Na przykład Google i Microsoft ogłosiły swoje wartości lata temu. Biorąc pod uwagę różnorodność wartości korporacyjnych w dziesiątkach sektorów, polityka etyczna dotycząca informacji i sztucznej inteligencji musi być dostosowana do unikalnych wymagań handlowych i prawnych organizacji. Jako lider biznesowy możesz podjąć kilka kroków, aby to osiągnąć.

Kroki budowania etycznej sztucznej inteligencji, która działa

Aby zbudować etyczną sztuczną inteligencję od samego początku (zamiast modernizować istniejące systemy sztucznej inteligencji za pomocą etyki), należy pamiętać o następujących krokach:

  1. Zdefiniuj wspólne porozumienie co do tego, co oznacza etyka sztucznej inteligencji

Opis ten musi być precyzyjny i praktyczny dla wszystkich kluczowych interesariuszy korporacyjnych. Doskonałym pomysłem jest także tworzenie interdyscyplinarnych zespołów ekspertów doradzających we wszystkich działaniach związanych z rozwojem, produkcją i wdrażaniem etycznego ML i AI.

  1. Katalog wpływu sztucznej inteligencji na systemy biznesowe

Istotnym elementem tworzenia etycznych ram sztucznej inteligencji jest dokumentowanie wykorzystania sztucznej inteligencji przez firmę. Firma szybko wdraża sztuczną inteligencję, zwłaszcza w systemach rekomendujących, botach, modelowaniu segmentacji klientów, mechanizmach kalkulacji kosztów i wykrywaniu anomalii. Regularne monitorowanie takich technik sztucznej inteligencji oraz procesów lub aplikacji, w których są one osadzone, ma kluczowe znaczenie dla zapobiegania logistycznym, reputacyjnym i finansowym zagrożeniom dla Twojej firmy.

  1. Stwórz ramy ryzyka etycznego związanego z danymi i sztuczną inteligencją, które są dostosowane do Twojej branży.

Skuteczne ramy obejmują u podstaw wyartykułowanie wartości etycznych firmy, proponowany model zarządzania oraz opis sposobu utrzymania tej konfiguracji. Niezbędne jest zbudowanie KPI i programu kontroli jakości w celu oceny ciągłej skuteczności etycznego podejścia AI.

Kompleksowe ramy wyjaśniają również włączenie etycznego zarządzania ryzykiem do operacji. Powinien zawierać jasną procedurę zgłaszania kwestii etycznych kierownictwu wyższego szczebla lub komisji ds. etyki.

  1. Zoptymalizuj etyczne wskazówki i narzędzia AI dla menedżerów produktów

Chociaż twoje ramy zapewniają wytyczne na szerszym poziomie, zalecenia na poziomie produktu muszą być precyzyjne. Standardowe algorytmy uczenia maszynowego rozpoznają wzorce, które są zbyt złożone, aby ludzie mogli je zrozumieć. Problem polega na tym, że często pojawia się konflikt między wyjaśnieniem wyników z jednej strony a dokładnością z drugiej.

Menedżerowie produktu muszą być w stanie dokonać tego kompromisu. Jeśli wyniki podlegają ograniczeniom wymagającym wyjaśnień, na przykład gdy instytucje finansowe muszą wyjaśnić, dlaczego wniosek o pożyczkę został odrzucony, precyzja będzie niezbędna. Menedżerowie produktu powinni mieć narzędzia do oceny jego znaczenia w konkretnym przypadku użycia.

  1. Monitoruj wpływ i angażuj interesariuszy

Tworzenie świadomości korporacyjnej, komitety etyczne, znający się na rzeczy właściciele produktów, menedżerowie, architekci i analitycy danych to elementy procesu rozwoju, a najlepiej procedury zakupu. Ze względu na niedobór zasobów, zarządzanie czasem i większą – i oczywistą – niemożność przewidzenia wszystkich sposobów, w jakie sprawy mogą pójść nie tak, monitorowanie wpływu informacji i produktów AI na rynek ma kluczowe znaczenie.

Przykład etycznej sztucznej inteligencji: analiza nastrojów

Doskonałym przykładem integracji rzetelności i inkluzywności jest ocena nastrojów — aby przygotować model ML do rozróżnienia zarówno pozytywnych, jak i negatywnych nastrojów w danych tekstowych, należy zaoferować odpowiednie dane szkoleniowe pod względem kontekstów społecznych i językowych.

W scenariuszu socjolingwistycznym, jakiego języka używasz? Czy rozważasz szerszy import kulturowy, który będzie istniał w parze z twoimi tagami emocji? Czy uwzględniono regionalne zróżnicowanie językowe? Problemy te dotyczą zarówno elementów automatycznego rozpoznawania mowy (ASR), jak i przetwarzania języka naturalnego (NLP) etycznej sztucznej inteligencji.

Jeśli Twój model ASR jest na przykład przeszkolony tylko w języku angielskim (Stany Zjednoczone), możesz napotkać problemy z transkrypcją podczas przetwarzania innych wariantów w języku angielskim. W tym przypadku główne różnice między amerykańskim i australijskim angielskim obejmują wymawianie r w określonych sytuacjach językowych oraz różnice w wymowie samogłosek w słowach, które muszą zostać uwzględnione w systemie sztucznej inteligencji.

Etyczne korzystanie ze sztucznej inteligencji

Poza budowaniem etycznej sztucznej inteligencji, jej użycie również musi być rozważone i uregulowane. Kiedy jednostki są nagradzane finansowo za nieetyczne działania, podważane są standardy etyczne. Pamiętaj, że nieuczciwe stosowanie systemu może wyrządzić szkodę, a nie jego nierówność, nieprzejrzystość lub inne cechy techniczne.

Jako przykład weźmy algorytmy Deepfake, technikę sztucznej inteligencji, która jest często wykorzystywana do złośliwych celów. Zdecydowana większość deepfake'ów online jest tworzona bez zgody ofiar. Chociaż możliwe jest zapewnienie, że generatywna sieć przeciwników wykorzystująca konstrukt Deepfakes działa równie dobrze na ludziach wszystkich odcieni skóry i płci, te ulepszenia/korekty sprawiedliwości są nieistotne — biorąc pod uwagę, że te same algorytmy są używane do innych, bardziej zgubnych celów.

Etyczna sztuczna inteligencja musi być wpleciona na każdym etapie prac nad sztuczną inteligencją, od momentu konceptualizacji algorytmu po opracowanie, długotrwałe użytkowanie i konserwację. Jak wyjaśniono w tym artykule, podczas opracowywania etycznej sztucznej inteligencji należy wykonać pięć kroków, a także korzystać z etycznych zestawów danych do szkolenia modeli AI i edukacji użytkowników.