Wie man eine ethische KI baut, die funktioniert

Veröffentlicht: 2023-03-30

Ungeachtet der vielen Vorteile der Innovation müssen Teams vor dem Einsatz von künstlicher Intelligenz (KI) über ein verantwortungsvolles KI-Framework und eine Toolbox verfügen. KI ist eine neutrale Technologie; es ist weder an sich ethisch noch unmoralisch. Alternativ ist KI eine Technologie, die sich an gesellschaftliche Normen und Standards hält. Es ist wichtig zu analysieren, welche Einschränkungen, Einschränkungen oder Standards vorhanden sind oder eingerichtet werden sollten, um ethische KI zu unterstützen.

Was ist ethische KI?

Im Großen und Ganzen kann ethische KI als datenwissenschaftliche Algorithmen definiert werden, die Vorhersagen treffen und Aktionen auslösen, die von Natur aus unvoreingenommen sind – dh nicht in Bezug auf Geschlecht, Sexualität, Rasse, Sprache, Behinderung oder andere demografische Merkmale diskriminieren – und auch festgelegt werden die Grundlagen für gerechtere Unternehmensentscheidungen.

PwC identifiziert die folgenden Attribute ethischer KI:

  • Interpretierbarkeit: Sollte in der Lage sein, ihren Entscheidungsprozess vollständig zu beschreiben.
  • Zuverlässigkeit: Sollte innerhalb der Grenzen seines Designs funktionieren und standardisierte, wiederholbare Vorhersagen und Empfehlungen liefern.
  • Sicherheit: Sollte gegen Cyber-Risiken abgesichert sein, insbesondere solche, die von Dritten und der Cloud ausgehen.
  • Rechenschaftspflicht: Sollte besonders Eigentümer identifiziert haben, die für die ethischen Folgen der Verwendung von KI-Modellen verantwortlich sind.
  • Nutzen: Sollte das Gemeinwohl priorisieren und sich auf Nachhaltigkeit, Zusammenarbeit und Transparenz konzentrieren.
  • Datenschutz: Sollte das Bewusstsein für erhaltene und verwendete Daten schärfen.
  • Menschliches Handeln: Sollte mehr menschliche Überwachung und Beteiligung ermöglichen.
  • Rechtmäßigkeit: Sollte sich an das Gesetz und alle geltenden Richtlinien halten.
  • Fairness: Sollte nicht voreingenommen gegenüber Einzelpersonen oder Gruppen sein.
  • Sicherheit: Darf das körperliche oder geistige Wohlbefinden von Personen nicht gefährden.

Leider ist ethische KI NICHT standardmäßig der Industriestandard, und mehrere Unternehmen stehen bei ihrer Implementierung vor Hürden. In einer kürzlich durchgeführten Umfrage haben die Befragten die Bedeutung ethischer KI erkannt, aber dieses Versprechen einzulösen ist schwieriger als es scheint. Neun von zehn (90 %) Top-Führungskräften stimmen zu, dass moralische Standards bei der Entwicklung und Nutzung neuer Technologien Unternehmen einen Wettbewerbsvorteil verschaffen können. Dennoch haben etwa zwei Drittel (64 %) der Top-Führungskräfte Voreingenommenheit in den von ihrer Organisation verwendeten KI-Systemen beobachtet.

3 Wege zum Aufbau einer ethischen KI

Es gibt drei typische Methoden zur Minderung der mit Daten und KI verbundenen ethischen Risiken: die akademische Methode, die Unternehmensmethode und die regulatorische Methode. Ethiker, die oft in philosophischen Fakultäten zu finden sind, sind gut darin, ethische Schwierigkeiten, ihre Ursprünge und ihre Argumentation zu erkennen.

Als nächstes kommt die Strategie „vor Ort“. Typischerweise sind es eifrige Technologen, Datenanalysten und Produktmanager, die wichtige Fragen innerhalb von Organisationen aufwerfen. Sie sind damit vertraut, geschäftsrelevante risikobezogene Fragen zu stellen, da sie diejenigen sind, die die Produkte entwickeln, um bestimmte Geschäftsziele zu erreichen.

Es gibt jetzt Unternehmen (ganz zu schweigen von Regierungen), die hochrangige ethische Normen für KI umsetzen. Google und Microsoft zum Beispiel haben ihre Werte schon vor Jahren proklamiert. Angesichts der Vielfalt der Unternehmenswerte in Dutzenden von Sektoren muss eine Informations- und KI-Ethikrichtlinie an die einzigartigen kommerziellen und rechtlichen Anforderungen der Organisation angepasst werden. Es gibt mehrere Schritte, die Sie als Unternehmensleiter unternehmen können, um dies zu erreichen.

Schritte zum Aufbau einer ethischen KI, die funktioniert

Um eine ethische KI von Anfang an zu konstruieren (anstatt bestehende KI-Systeme mit Ethik nachzurüsten), beachten Sie die folgenden Schritte:

  1. Definieren Sie eine gemeinsame Vereinbarung darüber, was KI-Ethik bedeutet

Diese Beschreibung muss für alle wichtigen Interessengruppen des Unternehmens präzise und praktikabel sein. Eine ausgezeichnete Idee ist auch die Schaffung funktionsübergreifender Expertenteams, die alle Aktivitäten zur Entwicklung, Produktion und Implementierung von ethischem ML und KI beraten.

  1. Auswirkungen von Katalog-KI auf Geschäftssysteme

Ein wesentlicher Bestandteil der Entwicklung eines ethischen KI-Frameworks ist die Dokumentation der KI-Nutzung des Unternehmens. Das Unternehmen setzt KI schnell ein, insbesondere im Avatar von Empfehlungssystemen, Bots, Modellierung der Kundensegmentierung, Kostenberechnungsmaschinen und Anomalieerkennung. Die regelmäßige Überwachung solcher KI-Techniken und der Prozesse oder Anwendungen, in die sie eingebettet sind, ist entscheidend, um logistische, rufschädigende und finanzielle Bedrohungen für Ihr Unternehmen zu verhindern.

  1. Erstellen Sie einen auf Ihre Branche zugeschnittenen ethischen Risikorahmen für Daten und KI.

Ein wirksames Rahmenwerk umfasst als Grundlage eine Artikulation der ethischen Werte des Unternehmens, ein vorgeschlagenes Governance-Modell und eine Beschreibung, wie diese Konfiguration aufrechterhalten werden soll. Es ist wichtig, KPIs und ein QA-Programm aufzubauen, um die anhaltende Wirksamkeit eines ethischen KI-Ansatzes zu bewerten.

Ein umfassendes Rahmenwerk erläutert auch die Einbeziehung des ethischen Risikomanagements in den Betrieb. Es sollte ein klares Verfahren für die Meldung ethischer Probleme an die Geschäftsleitung oder eine Ethikkommission beinhalten.

  1. Optimieren Sie ethische KI-Leitlinien und -Tools für Produktmanager

Obwohl Ihr Rahmenwerk Leitlinien auf einer breiteren Ebene bietet, müssen Empfehlungen auf Produktebene präzise sein. Herkömmliche Algorithmen für maschinelles Lernen erkennen Muster, die für Menschen zu komplex sind, um sie zu verstehen. Das Problem ist, dass häufig ein Konflikt entsteht, Ergebnisse einerseits erklärbar und andererseits akkurat wiederzugeben.

Produktmanager müssen in der Lage sein, diesen Kompromiss einzugehen. Wenn die Ergebnisse erklärungsbedürftigen Einschränkungen unterliegen, beispielsweise wenn Finanzinstitute erklären müssen, warum ein Kreditantrag abgelehnt wurde, ist Präzision unerlässlich. Produktmanager sollten über die Werkzeuge verfügen, um ihre Bedeutung in einem bestimmten Anwendungsfall abzuschätzen.

  1. Überwachen Sie die Auswirkungen und binden Sie Interessengruppen ein

Die Schaffung von Unternehmensbewusstsein, ethischen Komitees, sachkundigen Product Ownern, Managern, Architekten und Datenanalysten sind alles Bestandteile des Entwicklungsprozesses und idealerweise des Kaufverfahrens. Aufgrund von Ressourcenknappheit, Zeitmanagement und einer größeren – und offensichtlichen – Unfähigkeit, alle Möglichkeiten vorherzusehen, auf die Dinge schief gehen können, ist es entscheidend, die Auswirkungen von Informationen und KI-Produkten auf den Markt zu überwachen.

Ethisches KI-Beispiel: Stimmungsanalyse

Ein hervorragendes Beispiel für die Integration von Fairness und Inklusivität ist die Stimmungsbewertung – um ein ML-Modell vorzubereiten, um sowohl positive als auch negative Stimmung in Textdaten zu unterscheiden, muss man angemessene Trainingsdaten in Bezug auf soziale und sprachliche Kontexte anbieten.

Welche Sprache verwenden Sie in einem soziolinguistischen Szenario? Erwägen Sie die breitere kulturelle Bedeutung, die zusammen mit Ihren Emotions-Tags bestehen wird? Haben Sie regionale sprachliche Unterschiede berücksichtigt? Diese Probleme betreffen sowohl die Komponenten der automatisierten Spracherkennung (ASR) als auch der Verarbeitung natürlicher Sprache (NLP) der ethischen künstlichen Intelligenz.

Wenn Ihr ASR-Modell beispielsweise nur in US-Englisch trainiert wird, können bei der Verarbeitung anderer englischer Varianten Transkriptionsprobleme auftreten. In diesem Fall umfassen die wichtigsten Unterschiede zwischen amerikanischem und australischem Englisch die Aussprache von r in bestimmten sprachlichen Situationen und Vokalaussprachevarianzen in Wörtern, die in das KI-System aufgenommen werden müssen.

KI ethisch nutzen

Über den Aufbau ethischer KI hinaus muss auch deren Einsatz berücksichtigt und reguliert werden. Wenn Einzelpersonen für unethische Handlungen finanziell belohnt werden, werden ethische Standards untergraben. Denken Sie daran, dass die unfaire Anwendung eines Systems Schaden anrichten kann und nicht seine Ungerechtigkeit, Intransparenz oder andere technische Merkmale.

Nehmen wir als Beispiel Deepfake-Algorithmen, eine KI-Technik, die oft für böswillige Zwecke verwendet wird. Die überwiegende Mehrheit der Deepfakes im Internet wird ohne die Erlaubnis der Opfer erstellt. Während es möglich ist, sicherzustellen, dass das verwendete Konstrukt Deepfakes für generative gegnerische Netzwerke bei Menschen aller Hauttöne und Geschlechter gleich gut funktioniert, sind diese Fairness-Verbesserungen/Korrekturen belanglos – da dieselben Algorithmen für andere, schädlichere Absichten verwendet werden.

Ethische KI muss in jeden Schritt der Pipeline für künstliche Intelligenz eingebunden werden, von der Konzeption des Algorithmus über die Entwicklung bis hin zur längeren Nutzung und Wartung. Wie dieser Artikel erklärt, müssen bei der Entwicklung ethischer KI fünf Schritte befolgt werden, zusammen mit der Verwendung ethischer Datensätze für das KI-Modelltraining und die Benutzerschulung.