Как создать этичный ИИ, который работает

Опубликовано: 2023-03-30

Прежде чем использовать искусственный интеллект (ИИ), команды должны иметь надежную структуру ИИ и набор инструментов, несмотря на многие преимущества инноваций. ИИ — нейтральная технология; это ни этично, ни аморально. С другой стороны, ИИ — это технология, которая соответствует общественным нормам и стандартам. Важно проанализировать, какие ограничения, ограничения или стандарты существуют или должны быть установлены для поддержки этического ИИ.

Что такое этический ИИ?

В широком смысле этический ИИ можно определить как алгоритмы науки о данных, которые делают прогнозы и инициируют действия, которые носят беспристрастный характер, т. е. не делают различий по полу, сексуальности, расе, языку, инвалидности или любым другим основы для более справедливого принятия деловых решений.

PwC выделяет следующие атрибуты этического ИИ:

  • Интерпретируемость: Должен быть в состоянии полностью описать свой процесс принятия решений.
  • Надежность: Должен функционировать в рамках своей конструкции и давать стандартизированные, воспроизводимые прогнозы и рекомендации.
  • Безопасность: должна быть защищена от киберрисков, особенно от третьих лиц и облака.
  • Подотчетность: должны быть особо определены владельцы, которые несут ответственность за этические последствия использования моделей ИИ.
  • Выгода: следует отдавать приоритет общему благу, уделяя особое внимание устойчивости, сотрудничеству и прозрачности.
  • Конфиденциальность: следует распространять информацию о полученных и используемых данных.
  • Человеческое участие: Должен способствовать большему человеческому надзору и участию.
  • Законность: следует соблюдать закон и все применимые правила.
  • Справедливость: Не следует предвзято относиться к отдельным лицам или группам.
  • Безопасность: не должно угрожать физическому или психическому благополучию людей.

К сожалению, этический ИИ НЕ является отраслевым стандартом по умолчанию, и некоторые компании сталкиваются с препятствиями при его внедрении. В недавнем опросе респонденты признали важность этического ИИ, но выполнить это обещание сложнее, чем кажется. Девять из десяти (90%) руководителей высшего звена согласны с тем, что моральные стандарты при создании и использовании новых технологий могут дать организациям конкурентное преимущество. Тем не менее примерно две трети (64%) топ-менеджеров заметили предвзятость в системах ИИ, используемых в их организации.

3 пути к созданию этичного ИИ

Существует три типичных метода снижения этических рисков, связанных с данными и ИИ: академический метод, корпоративный метод и метод регулирования. Специалисты по этике, которых часто можно встретить на философских факультетах, хорошо умеют определять этические трудности, их происхождение и способы их решения.

Далее следует стратегия «на земле». Как правило, важные вопросы внутри организаций поднимают нетерпеливые технологи, аналитики данных и менеджеры по продуктам. Они знакомы с вопросами, связанными с рисками, связанными с бизнесом, поскольку именно они создают продукты для достижения конкретных бизнес-целей.

Сейчас есть корпорации (не говоря уже о правительствах), внедряющие этические нормы ИИ высокого уровня. Google и Microsoft, например, провозгласили свои ценности много лет назад. Учитывая разнообразие корпоративных ценностей в десятках секторов, политика этики информации и ИИ должна быть адаптирована к уникальным коммерческим и юридическим требованиям организации. Есть несколько шагов, которые вы, как бизнес-лидер, можете предпринять для достижения этой цели.

Шаги для создания этичного ИИ, который работает

Чтобы построить этический ИИ с самого начала (а не модернизировать существующие системы ИИ с помощью этики), помните о следующих шагах:

  1. Определите общее соглашение о том, что означает этика ИИ

Это описание должно быть точным и практичным для всех основных корпоративных заинтересованных сторон. Создание межфункциональных групп экспертов для консультирования по всем вопросам разработки, производства и внедрения этического машинного обучения и искусственного интеллекта также является отличной идеей.

  1. Влияние искусственного интеллекта на бизнес-системы

Важным компонентом разработки этической структуры ИИ является документирование использования ИИ компанией. Бизнес быстро внедряет ИИ, особенно в рекомендательных системах, ботах, моделировании сегментации клиентов, механизмах расчета затрат и обнаружении аномалий. Регулярный мониторинг таких методов искусственного интеллекта, а также процессов или приложений, в которые они встроены, имеет решающее значение для предотвращения логистических, репутационных и финансовых угроз для вашей компании.

  1. Создайте систему этических рисков, связанных с данными и ИИ, адаптированную к вашей отрасли.

Эффективная структура включает в себя формулировку этических ценностей компании, предлагаемую модель управления и описание того, как эта конфигурация будет поддерживаться. Крайне важно создать ключевые показатели эффективности и программу контроля качества, чтобы оценить постоянную эффективность этического подхода к ИИ.

Всеобъемлющая структура также разъясняет включение управления этическими рисками в операции. Он должен включать четкую процедуру сообщения этических проблем высшему руководству или комитету по этике.

  1. Оптимизируйте руководство и инструменты этического ИИ для менеджеров по продуктам

Хотя ваша структура предоставляет руководство на более широком уровне, рекомендации на уровне продукта должны быть точными. Стандартные алгоритмы машинного обучения распознают шаблоны, которые слишком сложны для понимания людьми. Проблема в том, что часто возникает конфликт между представлением результатов, объяснимых, с одной стороны, и точных, с другой.

Менеджеры по продукту должны уметь идти на этот компромисс. Если на результаты накладываются ограничения, требующие объяснений, например, когда финансовые учреждения должны объяснить, почему в заявке на получение кредита было отказано, тогда точность будет иметь важное значение. Менеджеры по продукту должны иметь инструменты для оценки его важности в конкретном случае использования.

  1. Мониторинг воздействия и привлечение заинтересованных сторон

Создание корпоративной осведомленности, этических комитетов, знающих владельцев продуктов, менеджеров, архитекторов и аналитиков данных — все это компоненты процесса разработки и, в идеале, процедуры покупки. Из-за нехватки ресурсов, управления временем и большей — и очевидной — неспособности предвидеть все пути, по которым что-то может пойти не так, крайне важно отслеживать влияние информации и продуктов ИИ на рынок.

Пример этического ИИ: анализ настроений

Отличным примером интеграции честности и инклюзивности является оценка настроений — чтобы подготовить модель ML для различения положительных и отрицательных настроений в текстовых данных, необходимо предоставить адекватные обучающие данные с точки зрения социального и языкового контекстов.

Какой язык вы используете в социолингвистическом сценарии? Думаете ли вы о более широком культурном значении, которое будет существовать в тандеме с вашими эмоциональными тегами? Учитывали ли вы региональные языковые различия? Эти проблемы относятся как к компонентам автоматического распознавания речи (ASR), так и к компонентам обработки естественного языка (NLP) этического искусственного интеллекта.

Например, если ваша модель ASR обучена только американскому английскому языку, вы можете столкнуться с проблемами транскрипции при обработке других вариантов английского языка. В этом случае основные различия между американским и австралийским английским языком включают произношение r в определенных языковых ситуациях и различия в произношении гласных в словах, которые должны быть включены в систему ИИ.

Этическое использование ИИ

Помимо создания этического ИИ, его использование также должно учитываться и регулироваться. Когда люди получают финансовое вознаграждение за неэтичные действия, этические стандарты подрываются. Помните, что вред может причинить несправедливое применение системы, а не ее несправедливость, непрозрачность или другие технические особенности.

В качестве примера возьмем алгоритмы Deepfake — метод искусственного интеллекта, который часто используется в злонамеренных целях. Подавляющее большинство дипфейков в сети создаются без разрешения жертв. Хотя можно гарантировать, что генерирующая состязательная сеть, используемая в Deepfakes, работает одинаково хорошо на людях любого оттенка кожи и пола, эти улучшения/исправления справедливости несущественны — учитывая, что одни и те же алгоритмы используются для других, более пагубных намерений.

Этический ИИ должен быть вплетен в каждый этап конвейера искусственного интеллекта, начиная с момента концептуализации алгоритма и заканчивая разработкой, длительным использованием и обслуживанием. Как объясняется в этой статье, при разработке этического ИИ необходимо выполнить пять шагов, а также использовать этические наборы данных для обучения моделей ИИ и обучения пользователей.