Cómo construir una IA ética que funcione

Publicado: 2023-03-30

Antes de utilizar la inteligencia artificial (IA), los equipos deben contar con un marco de IA responsable y una caja de herramientas, a pesar de las muchas ventajas de la innovación. AI es una tecnología neutral; no es intrínsecamente ético ni inmoral. Alternativamente, la IA es una tecnología que se adhiere a las normas y estándares sociales. Es esencial analizar qué restricciones, restricciones o estándares existen o deberían establecerse para respaldar la IA ética.

¿Qué es la IA ética?

En términos generales, la IA ética se puede definir como algoritmos de ciencia de datos que hacen predicciones y desencadenan acciones que son de naturaleza imparcial, es decir, no discriminan en términos de género, sexualidad, raza, idioma, discapacidad o cualquier otra característica demográfica, y también establecen las bases para una toma de decisiones empresariales más equitativa.

PwC identifica los siguientes atributos de la IA ética:

  • Interpretabilidad: debe ser capaz de describir su proceso de toma de decisiones en su totalidad.
  • Confiabilidad: debe funcionar dentro de los límites de su diseño y producir predicciones y recomendaciones estandarizadas y repetibles.
  • Seguridad: debe protegerse contra los riesgos cibernéticos, en particular los que plantean los terceros y la nube.
  • Responsabilidad: Debería haber identificado especialmente a los propietarios que son responsables de las consecuencias éticas del uso de modelos de IA.
  • Beneficencia: Debe priorizar el bien común, centrándose en la sostenibilidad, la colaboración y la transparencia.
  • Privacidad: Debe difundir la conciencia sobre los datos obtenidos y en uso.
  • Agencia humana: Debería facilitar una mayor supervisión y participación humana.
  • Legalidad: Debe cumplir con la ley y todas las pautas aplicables.
  • Equidad: No debe tener prejuicios contra individuos o grupos.
  • Seguridad: No debe poner en peligro el bienestar físico o mental de las personas.

Desafortunadamente, la IA ética NO es el estándar de la industria por defecto, y varias empresas enfrentan obstáculos en su implementación. En una encuesta reciente, los encuestados reconocieron la importancia de la IA ética, pero cumplir esta promesa es más difícil de lo que parece. Nueve de cada diez (90%) altos ejecutivos están de acuerdo en que los estándares morales en la creación y el uso de nuevas tecnologías pueden proporcionar a las organizaciones una ventaja competitiva. No obstante, aproximadamente dos tercios (64 %) de los altos ejecutivos han observado sesgos en los sistemas de inteligencia artificial utilizados por su organización.

3 caminos hacia la construcción de una IA ética

Existen tres metodologías típicas para mitigar los riesgos éticos asociados con los datos y la IA: el método académico, el método corporativo y el método regulatorio. Los especialistas en ética, que a menudo se encuentran en los departamentos de filosofía, son buenos para identificar las dificultades éticas, sus orígenes y cómo razonar a su alrededor.

La estrategia “sobre el terreno” viene a continuación. Por lo general, los tecnólogos entusiastas, los analistas de datos y los gerentes de productos son los que plantean preguntas importantes dentro de las organizaciones. Están familiarizados con hacer preguntas relacionadas con riesgos relevantes para el negocio, ya que son ellos los que crean los productos para lograr objetivos comerciales específicos.

Ahora hay corporaciones (sin mencionar los gobiernos) que implementan normas éticas de IA de alto nivel. Google y Microsoft, por ejemplo, proclamaron sus valores hace años. Dada la diversidad de valores corporativos en docenas de sectores, una política de ética de la información y la IA debe adaptarse a los requisitos comerciales y legales únicos de la organización. Hay varios pasos que usted, como líder empresarial, puede tomar para lograr esto.

Pasos para construir una IA ética que funcione

Para construir una IA ética desde su inicio (en lugar de adaptar los sistemas de IA existentes con ética), tenga en cuenta los siguientes pasos:

  1. Definir un acuerdo común de lo que significa la ética de la IA

Esta descripción debe ser precisa y práctica para todas las partes interesadas corporativas clave. Crear equipos multifuncionales de expertos para asesorar todas las actividades sobre el desarrollo, la producción y la implementación de IA y ML éticos también es una excelente idea.

  1. Catalogar el impacto de la IA en los sistemas empresariales

Un componente esencial del desarrollo de un marco ético de IA es documentar el uso de IA de la empresa. La empresa está adoptando rápidamente la IA, especialmente en el avatar de los sistemas de recomendación, los bots, el modelado de segmentación de clientes, los motores de costos y la detección de anomalías. El monitoreo regular de tales técnicas de IA y los procesos o aplicaciones en los que están integrados es crucial para prevenir amenazas logísticas, de reputación y financieras para su empresa.

  1. Cree un marco de riesgo ético de datos e IA que se adapte a su industria.

Un marco eficaz incluye, en su base, una articulación de los valores éticos de la empresa, un modelo de gobierno propuesto y una descripción de cómo se mantendrá esta configuración. Es esencial crear KPI y un programa de control de calidad para evaluar la eficacia continua de un enfoque ético de IA.

Un marco integral también aclara la incorporación de la gestión ética del riesgo en las operaciones. Debe incluir un procedimiento claro para informar problemas éticos a la alta dirección o a un comité de ética.

  1. Optimice la guía y las herramientas éticas de IA para los gerentes de productos

Aunque su marco proporciona orientación a un nivel más amplio, las recomendaciones a nivel de producto deben ser precisas. Los algoritmos estándar de aprendizaje automático reconocen patrones que son demasiado complejos para que los humanos los comprendan. El problema es que con frecuencia surge un conflicto entre hacer que los resultados sean explicables por un lado y precisos por el otro.

Los gerentes de producto deben poder hacer este compromiso. Si los resultados están sujetos a restricciones que exigen explicaciones, como cuando las instituciones financieras deben explicar por qué se denegó una solicitud de préstamo, entonces la precisión será esencial. Los gerentes de productos deben tener las herramientas para medir su importancia en un caso de uso particular.

  1. Supervisar los impactos e involucrar a las partes interesadas

Crear conciencia corporativa, comités éticos, propietarios de productos informados, gerentes, arquitectos y analistas de datos son todos componentes del proceso de desarrollo e, idealmente, del procedimiento de compra. Debido a la escasez de recursos, la gestión del tiempo y una incapacidad más grande y obvia para prever todas las formas en que las cosas pueden salir mal, es fundamental monitorear los efectos de la información y los productos de IA en el mercado.

Ejemplo de IA ética: análisis de sentimiento

Un excelente ejemplo de integración de equidad e inclusión es la evaluación de sentimientos: para preparar un modelo de ML para distinguir sentimientos positivos y negativos en datos textuales, se deben ofrecer datos de capacitación adecuados en términos de contextos sociales y lingüísticos.

En un escenario sociolingüístico, ¿qué idioma emplea? ¿Estás considerando la importancia cultural más amplia que subsistirá junto con tus etiquetas de emociones? ¿Ha tenido en cuenta la variación lingüística regional? Estos problemas se relacionan con los componentes de reconocimiento de voz automatizado (ASR) y procesamiento de lenguaje natural (NLP) de la inteligencia artificial ética.

Si su modelo ASR solo está entrenado en inglés de EE. UU., por ejemplo, puede encontrar problemas de transcripción mientras procesa otras variantes del inglés. En este caso, las principales variaciones entre el inglés estadounidense y el australiano incluyen la pronunciación de la r en situaciones lingüísticas particulares y variaciones en la pronunciación de las vocales en las palabras, que deben incluirse en el sistema de inteligencia artificial.

Usar la IA de manera ética

Más allá de construir una IA ética, su uso también debe ser considerado y regulado. Cuando las personas son recompensadas financieramente por acciones poco éticas, los estándares éticos se ven socavados. Recuerde, la aplicación desleal de un sistema puede causar daño, y no su inequidad, opacidad u otras características técnicas.

Como ejemplo, tome los algoritmos Deepfake, una técnica de IA que a menudo se usa con fines maliciosos. La gran mayoría de las falsificaciones profundas en línea se crean sin el permiso de las víctimas. Si bien es posible garantizar que la red de confrontación generativa utilizada en la construcción Deepfakes funcione igual de bien en personas de todos los tonos de piel y géneros, estas mejoras/correcciones de equidad son intrascendentes, dado que los mismos algoritmos se usan para otras intenciones más perniciosas.

La IA ética debe integrarse en cada paso de la tubería de inteligencia artificial, desde el momento de conceptualizar el algoritmo hasta el desarrollo y el uso y mantenimiento prolongados. Como se explica en este artículo, hay cinco pasos que se deben seguir al desarrollar una IA ética, junto con el uso de conjuntos de datos éticos para la capacitación del modelo de IA y la educación de los usuarios.