كيفية بناء ذكاء اصطناعي أخلاقي يعمل

نشرت: 2023-03-30

قبل استخدام الذكاء الاصطناعي (AI) ، يجب أن يكون لدى الفرق إطار عمل ذكاء اصطناعي مسؤول وصندوق أدوات ، على الرغم من المزايا العديدة للابتكار. الذكاء الاصطناعي هو تقنية محايدة. إنه ليس أخلاقيًا في جوهره ولا غير أخلاقي. بدلاً من ذلك ، يعد الذكاء الاصطناعي تقنية تلتزم بالقواعد والمعايير المجتمعية. من الضروري تحليل القيود أو القيود أو المعايير الموجودة أو التي يجب وضعها لدعم الذكاء الاصطناعي الأخلاقي.

ما هو الذكاء الاصطناعي الأخلاقي؟

بشكل عام ، يمكن تعريف الذكاء الاصطناعي الأخلاقي على أنه خوارزميات لعلوم البيانات التي تقوم بالتنبؤات وتطلق إجراءات غير متحيزة بطبيعتها - أي لا تميز من حيث الجنس أو الجنس أو العرق أو اللغة أو الإعاقة أو أي ميزة ديموغرافية أخرى - وأيضًا تعيين أسس اتخاذ قرارات تجارية أكثر إنصافًا.

تحدد برايس ووترهاوس كوبرز السمات التالية للذكاء الاصطناعي الأخلاقي:

  • التفسير: يجب أن تكون قادرة على وصف عملية اتخاذ القرار في مجملها.
  • الموثوقية: يجب أن تعمل ضمن حدود تصميمها وتنتج تنبؤات وتوصيات موحدة وقابلة للتكرار.
  • الأمان: يجب تأمينه ضد المخاطر الإلكترونية ، لا سيما تلك التي تشكلها الجهات الخارجية والسحابة.
  • المساءلة: يجب تحديد المالكين المسؤولين عن العواقب الأخلاقية لاستخدام نماذج الذكاء الاصطناعي.
  • المنفعة: يجب إعطاء الأولوية للصالح العام ، مع التركيز على الاستدامة والتعاون والشفافية.
  • الخصوصية: يجب نشر الوعي بشأن البيانات التي تم الحصول عليها واستخدامها.
  • الفاعلية البشرية: يجب أن تسهل المزيد من الإشراف والمشاركة البشرية.
  • الشرعية: يجب الالتزام بالقانون وجميع الإرشادات المعمول بها.
  • الإنصاف: عدم التحيز ضد الأفراد أو الجماعات.
  • السلامة: يجب ألا تعرض السلامة الجسدية أو العقلية للأفراد للخطر.

لسوء الحظ ، لا يعد الذكاء الاصطناعي الأخلاقي معيار الصناعة افتراضيًا ، وتواجه العديد من الشركات عقبات في تنفيذه. في استطلاع حديث ، أدرك المستجيبون أهمية الذكاء الاصطناعي الأخلاقي ، لكن الوفاء بهذا الوعد أصعب مما يبدو. يتفق تسعة من كل عشرة (90٪) من كبار المديرين التنفيذيين على أن المعايير الأخلاقية في إنشاء واستخدام التقنيات الجديدة قد تزود المؤسسات بميزة تنافسية. ومع ذلك ، لاحظ ما يقرب من ثلثي (64٪) كبار المديرين التنفيذيين التحيز في أنظمة الذكاء الاصطناعي التي تستخدمها مؤسساتهم.

3 طرق لبناء الذكاء الاصطناعي الأخلاقي

هناك ثلاث منهجيات نموذجية للتخفيف من المخاطر الأخلاقية المرتبطة بالبيانات والذكاء الاصطناعي: الطريقة الأكاديمية ، وطريقة الشركة ، والطريقة التنظيمية. إن علماء الأخلاق ، الذين يوجدون غالبًا في أقسام الفلسفة ، بارعون في تحديد الصعوبات الأخلاقية ، وأصولها ، وكيفية التفكير حولها.

تأتي استراتيجية "على الأرض" بعد ذلك. عادةً ما يكون التقنيون ومحللو البيانات ومديرو المنتجات المتحمسون هم من يثيرون أسئلة مهمة داخل المؤسسات. إنهم على دراية بطرح الأسئلة المتعلقة بالمخاطر المتعلقة بالأعمال التجارية لأنهم هم الذين يصنعون المنتجات لتحقيق أهداف عمل محددة.

هناك الآن شركات (ناهيك عن الحكومات) تطبق معايير أخلاقية عالية المستوى للذكاء الاصطناعي. جوجل ومايكروسوفت ، على سبيل المثال ، أعلنوا عن قيمهم منذ سنوات. نظرًا لتنوع القيم المؤسسية عبر عشرات القطاعات ، يجب تكييف سياسة أخلاقيات المعلومات والذكاء الاصطناعي مع المتطلبات التجارية والقانونية الفريدة للمؤسسة. هناك العديد من الخطوات التي يمكنك ، كقائد أعمال ، اتخاذها لتحقيق ذلك.

خطوات لبناء ذكاء اصطناعي أخلاقي يعمل

لإنشاء ذكاء اصطناعي أخلاقي منذ بدايته ، (بدلاً من تعديل أنظمة الذكاء الاصطناعي الحالية مع الأخلاقيات) ، ضع في اعتبارك الخطوات التالية:

  1. حدد اتفاقًا مشتركًا لما تعنيه أخلاقيات الذكاء الاصطناعي

يجب أن يكون هذا الوصف دقيقًا وعمليًا لجميع أصحاب المصلحة الرئيسيين في الشركة. يعد إنشاء فرق متعددة الوظائف من الخبراء لتقديم المشورة لجميع الأنشطة حول تطوير وإنتاج وتطبيق ML و AI الأخلاقيين فكرة ممتازة أيضًا.

  1. كتالوج تأثير الذكاء الاصطناعي على أنظمة الأعمال

من المكونات الأساسية لتطوير إطار عمل أخلاقي للذكاء الاصطناعي توثيق استخدام الشركة للذكاء الاصطناعي. تتبنى الشركة الذكاء الاصطناعي بسرعة ، لا سيما في الصورة الرمزية لأنظمة التوصية ، والروبوتات ، ونمذجة تجزئة العملاء ، ومحركات التكلفة ، واكتشاف الشذوذ. تعد المراقبة المنتظمة لتقنيات الذكاء الاصطناعي هذه والعمليات أو التطبيقات التي يتم تضمينها فيها أمرًا بالغ الأهمية لمنع التهديدات اللوجستية والسمعة والمالية لشركتك.

  1. قم بإنشاء إطار عمل للمخاطر الأخلاقية للبيانات والذكاء الاصطناعي مصمم خصيصًا لمجال عملك.

يتضمن إطار العمل الفعال ، في أساسه ، توضيح القيم الأخلاقية للشركة ، ونموذج حوكمة مقترح ، ووصفًا لكيفية الحفاظ على هذا التكوين. من الضروري بناء مؤشرات الأداء الرئيسية وبرنامج ضمان الجودة من أجل تقييم الفعالية المستمرة لنهج أخلاقي للذكاء الاصطناعي.

يوضح الإطار الشامل أيضًا دمج إدارة المخاطر الأخلاقية في العمليات. يجب أن يتضمن إجراءً واضحًا لإبلاغ القيادة العليا أو لجنة الأخلاقيات بالقضايا الأخلاقية.

  1. تحسين إرشادات وأدوات الذكاء الاصطناعي الأخلاقية لمديري المنتجات

على الرغم من أن إطار العمل الخاص بك يوفر إرشادات على مستوى أوسع ، يجب أن تكون التوصيات على مستوى المنتج دقيقة. تتعرف خوارزميات التعلم الآلي القياسية على الأنماط المعقدة للغاية بحيث يتعذر على البشر فهمها. تكمن المشكلة في أنه كثيرًا ما ينشأ تعارض بين جعل النتائج قابلة للشرح من ناحية ودقيقة من ناحية أخرى.

يجب أن يكون مديرو المنتج قادرين على إجراء هذه المقايضة. إذا كانت المخرجات تخضع لقيود تتطلب تفسيرات ، مثل عندما يتعين على المؤسسات المالية توضيح سبب رفض طلب القرض ، فإن الدقة ستكون ضرورية. يجب أن يمتلك مديرو المنتجات الأدوات اللازمة لقياس أهميتها في حالة استخدام معينة.

  1. رصد الآثار وإشراك أصحاب المصلحة

إن خلق الوعي المؤسسي ، واللجان الأخلاقية ، وأصحاب المنتجات المطلعين ، والمديرين ، والمهندسين المعماريين ، ومحللي البيانات كلها مكونات لعملية التطوير ، ومن الناحية المثالية ، إجراءات الشراء. نظرًا لندرة الموارد ، وإدارة الوقت ، والعجز الأكبر - والواضح - عن التنبؤ بجميع الطرق التي قد تنحرف بها الأمور ، فمن الأهمية بمكان مراقبة آثار المعلومات ومنتجات الذكاء الاصطناعي في السوق.

مثال أخلاقي للذكاء الاصطناعي: تحليل المشاعر

من الأمثلة الممتازة لدمج الإنصاف والشمولية تقييم المشاعر - من أجل إعداد نموذج ML للتمييز بين المشاعر الإيجابية والسلبية في البيانات النصية ، يجب على المرء تقديم بيانات تدريب كافية من حيث السياقات الاجتماعية واللغوية.

في سيناريو لغوي اجتماعي ، ما هي اللغة التي تستخدمها؟ هل تفكر في الاستيراد الثقافي الأوسع الذي سيبقى جنبًا إلى جنب مع علامات المشاعر الخاصة بك؟ هل أخذت التباين اللغوي الإقليمي في الحسبان؟ تتعلق هذه المشكلات بكل من مكونات التعرف الآلي على الكلام (ASR) ومعالجة اللغة الطبيعية (NLP) للذكاء الاصطناعي الأخلاقي.

إذا تم تدريب نموذج ASR الخاص بك باللغة الإنجليزية الأمريكية فقط ، على سبيل المثال ، فقد تواجه مشكلات النسخ أثناء معالجة المتغيرات الإنجليزية الأخرى. في هذه الحالة ، تتضمن الاختلافات الرئيسية بين الإنجليزية الأمريكية والأسترالية نطق r في مواقف لغوية معينة واختلافات نطق الحروف المتحركة في الكلمات ، والتي يجب تضمينها في نظام الذكاء الاصطناعي.

استخدام الذكاء الاصطناعي أخلاقياً

بالإضافة إلى بناء الذكاء الاصطناعي الأخلاقي ، يجب أيضًا النظر في استخدامه وتنظيمه. عندما يكافأ الأفراد ماليًا على أفعالهم غير الأخلاقية ، يتم تقويض المعايير الأخلاقية. تذكر أن التطبيق غير العادل لنظام ما قد يسبب ضررًا ، وليس عدم المساواة أو التعتيم أو أي ميزات تقنية أخرى.

كمثال ، خذ خوارزميات Deepfake ، وهي تقنية ذكاء اصطناعي تستخدم غالبًا لأغراض ضارة. يتم إنشاء الغالبية العظمى من عمليات التزييف العميق على الإنترنت دون إذن الضحايا. في حين أنه من الممكن التأكد من أن شبكة الخصومة التوليدية المستخدمة تعمل Deepfakes بشكل جيد على الأشخاص من جميع ألوان البشرة والأجناس ، فإن تحسينات / تصحيحات الإنصاف هذه غير منطقية - نظرًا لأن نفس الخوارزميات قيد الاستخدام لنية أخرى أكثر ضررًا.

يجب نسج الذكاء الاصطناعي الأخلاقي في كل خطوة من خط أنابيب الذكاء الاصطناعي ، مباشرة من وقت وضع تصور للخوارزمية إلى التطوير والاستخدام المطول والصيانة. كما توضح هذه المقالة ، هناك خمس خطوات يجب على المرء اتباعها عند تطوير الذكاء الاصطناعي الأخلاقي ، إلى جانب استخدام مجموعات البيانات الأخلاقية لتدريب نموذج الذكاء الاصطناعي وتعليم المستخدم.