Comment construire une IA éthique qui fonctionne

Publié: 2023-03-30

Avant d'utiliser l'intelligence artificielle (IA), les équipes doivent disposer d'un cadre d'IA responsable et d'une boîte à outils, malgré les nombreux avantages de l'innovation. L'IA est une technologie neutre ; elle n'est ni intrinsèquement éthique ni immorale. Alternativement, l'IA est une technologie qui adhère aux normes et standards de la société. Il est essentiel d'analyser quelles restrictions, contraintes ou normes sont en place ou devraient être établies pour soutenir l'IA éthique.

Qu'est-ce que l'IA éthique ?

De manière générale, l'IA éthique peut être définie comme des algorithmes de science des données qui font des prédictions et déclenchent des actions de nature impartiale - c'est-à-dire, ne font pas de discrimination en termes de sexe, de sexualité, de race, de langue, de handicap ou de toute autre caractéristique démographique - et définissent également les fondements d'une prise de décision commerciale plus équitable.

PwC identifie les attributs suivants de l'IA éthique :

  • Interprétabilité : Doit être en mesure de décrire son processus décisionnel dans son intégralité.
  • Fiabilité : doit fonctionner dans les limites de sa conception et produire des prévisions et des recommandations normalisées et reproductibles.
  • Sécurité : Doit être protégé contre les cyber-risques, en particulier ceux posés par des tiers et le cloud.
  • Responsabilité : Doit avoir identifié en particulier les propriétaires qui sont responsables des conséquences éthiques de l'utilisation des modèles d'IA.
  • Bénéficité : devrait donner la priorité au bien commun, en se concentrant sur la durabilité, la collaboration et la transparence.
  • Confidentialité : Devrait diffuser la sensibilisation sur les données obtenues et en cours d'utilisation.
  • Agence humaine : devrait faciliter une supervision et une participation plus humaines.
  • Légalité : doit respecter la loi et toutes les directives applicables.
  • Équité : Ne doit pas être préjudiciable à des individus ou à des groupes.
  • Sécurité : ne doit pas mettre en danger le bien-être physique ou mental des personnes.

Malheureusement, l'IA éthique n'est PAS la norme de l'industrie par défaut, et plusieurs entreprises sont confrontées à des obstacles dans sa mise en œuvre. Dans une récente enquête, les personnes interrogées ont reconnu l'importance d'une IA éthique, mais tenir cette promesse est plus difficile qu'il n'y paraît. Neuf cadres supérieurs sur dix (90 %) conviennent que les normes morales dans la création et l'utilisation des nouvelles technologies peuvent fournir aux organisations un avantage concurrentiel. Néanmoins, environ les deux tiers (64 %) des cadres supérieurs ont observé des biais dans les systèmes d'IA utilisés par leur organisation.

3 voies vers la construction d'une IA éthique

Il existe trois méthodologies typiques pour atténuer les risques éthiques associés aux données et à l'IA : la méthode académique, la méthode d'entreprise et la méthode réglementaire. Les éthiciens, que l'on trouve souvent dans les départements de philosophie, sont doués pour identifier les difficultés éthiques, leurs origines et comment raisonner autour d'elles.

La stratégie « sur le terrain » vient ensuite. En règle générale, les technologues, les analystes de données et les chefs de produit passionnés sont ceux qui soulèvent des questions importantes au sein des organisations. Ils sont habitués à poser des questions sur les risques liés à l'entreprise, car ce sont eux qui créent les produits pour atteindre des objectifs commerciaux spécifiques.

Il existe désormais des entreprises (sans parler des gouvernements) qui mettent en œuvre des normes éthiques de haut niveau en matière d'IA. Google et Microsoft, par exemple, ont proclamé leurs valeurs il y a des années. Compte tenu de la diversité des valeurs d'entreprise dans des dizaines de secteurs, une politique d'éthique de l'information et de l'IA doit être adaptée aux exigences commerciales et légales uniques de l'organisation. En tant que chef d'entreprise, vous pouvez suivre plusieurs étapes pour y parvenir.

Étapes pour créer une IA éthique qui fonctionne

Pour construire une IA éthique dès sa création (plutôt que de moderniser les systèmes d'IA existants avec l'éthique), gardez à l'esprit les étapes suivantes :

  1. Définir un accord commun sur ce que signifie l'éthique de l'IA

Cette description doit être précise et pratique pour toutes les parties prenantes clés de l'entreprise. La création d'équipes interfonctionnelles d'experts pour conseiller toutes les activités sur le développement, la production et la mise en œuvre d'un ML et d'une IA éthiques est également une excellente idée.

  1. L'impact de Catalog AI sur les systèmes d'entreprise

Un élément essentiel du développement d'un cadre d'IA éthique consiste à documenter l'utilisation de l'IA par l'entreprise. L'entreprise adopte rapidement l'IA, notamment dans l'avatar des systèmes de recommandation, des bots, de la modélisation de la segmentation de la clientèle, des moteurs d'établissement des coûts et de la détection des anomalies. Une surveillance régulière de ces techniques d'IA et des processus ou applications dans lesquels elles sont intégrées est essentielle pour prévenir les menaces logistiques, de réputation et financières pour votre entreprise.

  1. Créez un cadre de risque éthique pour les données et l'IA adapté à votre secteur.

Un cadre efficace comprend, à sa base, une articulation des valeurs éthiques de l'entreprise, une proposition de modèle de gouvernance et une description de la manière dont cette configuration sera maintenue. Il est essentiel de construire des KPI et un programme d'assurance qualité afin d'évaluer l'efficacité continue d'une approche éthique de l'IA.

Un cadre global explique également l'intégration de la gestion des risques éthiques dans les opérations. Il devrait inclure une procédure claire pour signaler les problèmes éthiques à la haute direction ou à un comité d'éthique.

  1. Optimiser les conseils et les outils d'IA éthique pour les chefs de produit

Bien que votre cadre fournisse des conseils à un niveau plus large, les recommandations au niveau du produit doivent être précises. Les algorithmes d'apprentissage automatique standard reconnaissent les modèles qui sont trop complexes pour être compris par les humains. Le problème est qu'un conflit surgit fréquemment entre rendre les résultats explicables d'une part et exacts d'autre part.

Les chefs de produit doivent être capables de faire ce compromis. Si les sorties sont soumises à des contraintes exigeant des explications, comme lorsque les institutions financières doivent expliquer pourquoi une demande de prêt a été refusée, alors la précision sera essentielle. Les chefs de produit doivent disposer des outils nécessaires pour évaluer son importance dans un cas d'utilisation particulier.

  1. Surveiller les impacts et impliquer les parties prenantes

La sensibilisation de l'entreprise, les comités d'éthique, les propriétaires de produits compétents, les gestionnaires, les architectes et les analystes de données sont tous des composants du processus de développement et, idéalement, de la procédure d'achat. En raison de la rareté des ressources, de la gestion du temps et d'une incapacité plus grande - et évidente - à prévoir toutes les manières dont les choses peuvent mal tourner, il est essentiel de surveiller les effets de l'information et des produits d'IA sur le marché.

Exemple d'IA éthique : analyse des sentiments

Un excellent exemple d'intégration de l'équité et de l'inclusivité est l'évaluation des sentiments - afin de préparer un modèle ML pour distinguer les sentiments positifs et négatifs dans les données textuelles, il faut offrir des données de formation adéquates en termes de contextes sociaux et linguistiques.

Dans un scénario sociolinguistique, quelle langue employez-vous ? Envisagez-vous l'importation culturelle plus large qui subsistera en tandem avec vos tags d'émotion ? Avez-vous pris en compte la variance linguistique régionale ? Ces problèmes concernent à la fois les composants de reconnaissance vocale automatisée (ASR) et de traitement du langage naturel (NLP) de l'intelligence artificielle éthique.

Si votre modèle ASR n'est formé qu'en anglais américain, par exemple, vous pouvez rencontrer des problèmes de transcription lors du traitement d'autres variantes anglaises. Dans ce cas, les principales variations entre l'anglais américain et australien incluent la prononciation de r dans des situations linguistiques particulières et les variances de prononciation des voyelles dans les mots, qui doivent être incluses dans le système d'IA.

Utiliser l'IA de manière éthique

Au-delà de la construction d'une IA éthique, son utilisation doit également être envisagée et réglementée. Lorsque des individus sont récompensés financièrement pour des actions contraires à l'éthique, les normes éthiques sont sapées. N'oubliez pas que l'application injuste d'un système peut causer un préjudice, et non son iniquité, son opacité ou d'autres caractéristiques techniques.

Prenons par exemple les algorithmes Deepfake, une technique d'IA souvent utilisée à des fins malveillantes. La grande majorité des deepfakes en ligne sont créés sans l'autorisation des victimes. Bien qu'il soit possible de s'assurer que le réseau contradictoire génératif utilisé construit Deepfakes fonctionne aussi bien sur les personnes de tous les tons de peau et de tous les sexes, ces améliorations/corrections d'équité sont sans conséquence - étant donné que les mêmes algorithmes sont utilisés pour d'autres intentions plus pernicieuses.

L'IA éthique doit être intégrée à chaque étape du pipeline de l'intelligence artificielle, depuis le moment de la conceptualisation de l'algorithme jusqu'au développement, en passant par l'utilisation et la maintenance prolongées. Comme cet article l'explique, il y a cinq étapes à suivre lors du développement d'une IA éthique, ainsi que l'utilisation d'ensembles de données éthiques pour la formation au modèle d'IA et l'éducation des utilisateurs.