في عالم الذكاء الاصطناعي ، "لقد إصلاحنا" ليس جيدًا بما يكفي
نشرت: 2025-08-25الذكاء الاصطناعى هو أكثر سلعة في عالم التكنولوجيا في الوقت الحالي. هناك سباق في الصناعة لبناء نماذج منظمة العفو الدولية الأحدث وأسرع ويفضلها. وعلى الرغم من أن الكثيرين يعجدون بالسرعة التي يتم بها الخروج من النماذج الجديدة (كان هناك أكثر من عشرة طرازات ChatGPT التي تم إصدارها بالفعل) ومدى الوصول إليها (هاتف ذكي 120 دولارًا أمريكيًا لديه الآن Gemini) ، فإننا في الواقع لا نولي اهتمامًا للأضرار التي يحدثها هذا التقدم. لا ، نحن لا نتحدث عن كيفية تآكل الذكاء الاصطناعى قدرتنا على التفكير أو معالجة المعلومات ، أو ذهان الذكاء الاصطناعى الذي يحصل عليه مدرب Microsoft من الذكاء الاصطناعى "ليالي بلا نوم" حول ، أو حتى التأثير البيئي لاستخدام الذكاء الاصطناعي. هذه مهمة ، ولكنها قصص ليوم آخر (ونحن نعمل عليها).
لا ، نحن ننظر إلى شيء أكثر وضوحًا - الأذى الإنساني والبدني ، وكيف تقول شركات التكنولوجيا ببساطة "عفوًا ، آسف" والابتعاد عن كل شيء. لم يمض وقت طويل ، وجدت Meta نفسها في الماء الساخن بعد تسرب وثيقة داخلية ، مما يشير إلى أن الشركة سمحت لـ AI chatbot بمغازلة الأطفال ، وتوليد معلومات طبية خاطئة ، ودعم الحجج العنصرية بنشاط.
استجابة ميتا؟ " لقد أصلحناها. "
chatbot منظمة العفو الدولية التي يمكن أن "إشراك طفل في محادثات رومانسية أو حسية"!
في وقت سابق من هذا العام ، أنشأت Meta Meta Superintelligence Labs (MSL) ، وهي أحدث قسم من الذكاء الاصطناعي للشركة. لتشغيل هذا القسم ، قررت العلامة التجارية التقنية الذهاب في مطاردة. مطاردة للموهبة. الآن قد يبدو هذا بسيطًا وواضحًا ، لكن Meta تجاوزت معايير الصناعة لتوظيف موهبة منظمة العفو الدولية من جميع أنحاء العالم ولم تخجل من الصيد الجائر أيضًا. وفقًا للتقارير ، قامت Meta بالمواهب المسلوقة من Openai و Google و Apple والعديد من العلامات التجارية الأخرى. كان الأمر كما لو كان Zuckerberg يقوم بتجميع AI Ai Avengers "لإنقاذ" العالم من نماذج منظمة العفو الدولية الأخرى ، بهدف تكبية كبار المسؤولين التنفيذيين من أجل السيطرة على مساحة الذكاء الاصطناعي.
تبدو مألوفة؟ حسنًا ، حصلت Meta على Instagram و WhatsApp ، وحتى عرض 500 مليون دولار أمريكي للتويتر. بالنظر إلى عقلية Meta "لماذا اتبع القائد أو القائد عندما يمكنك شراء القائد" ، لم يكن من المفاجئ أن تقدم Meta حزمًا تصل إلى 250 مليون دولار لأعلى مواهب الذكاء الاصطناعي لأنها كانت في بناء Aimpire. يبدو أنه في كل هذا الاندفاع للحصول على أفضل ما في كل مكان على متن الطائرة ، بناء نماذج منظمة العفو الدولية أسرع من بقية العالم ، عبرت Meta خطًا ضخمًا.
أظهرت الوثيقة الداخلية التي تم تسريبها التي أشرنا إليها في وقت سابق أن عملاق التكنولوجيا سمحت لـ AI chatbot بـ "إشراك طفل في محادثات رومانسية أو حسية" و "بما في ذلك لعب الأدوار الرومانسية". الآن ما يزعجه هو حقيقة أن هذا ليس خطأ بل سياسة معتمدة ، والتي اعتبرت مقبولة من قبل فريق Meta القانوني ، والموظفين الهندسيين ، وكذلك إدارة السياسة العامة. يزعم Meta أنه "إصلاحه" ، لكننا لا نعرف ما إذا كانت الإصلاحات قد تم إجراؤها فقط على رمز أو إلى مجموعة كاملة من السياسات والعمليات التي جعلت شيئًا خطيرًا ممكنًا.
ميتا فينومينون ، لا يقتصر على التعريف
هذا ليس حادثًا معزولًا ، ولا يقتصر على التعريف. في الواقع ، يبدو أن العديد من المنظمات التي استثمرت بكثافة في الذكاء الاصطناعي راضية عن توظيفها بتهور ، وتطوير وكلاء الذكاء الاصطناعي بسرعة جنون ، مع القليل من القلق بشأن الفوضى التي يمكنهم تعرضها. منذ وقت ليس ببعيد ، استمر Gork في Twitter-Now-X في تقديم التشدقات العنصرية والمعادية للسامية. لقد أسقطت اعتذارًا غير مقنع بينما قال Elon Musk إن الروبوت "تم التلاعب به". في حادثة منفصلة ، ذهب الجوزاء في فورة الكراهية الذاتية وأعلنت أنها كانت فاشلة عدة مرات. قال Google إنه كان خللًا وأنه يعمل على "إصلاحه".
المشكلة هي أن هذه الإشراف ، والخوف ، والبق ... أو أي علامات تجارية تختارها تهدفها ، غالبًا ما تؤثر على صحة الإنسان. ادعى رجل أن شاتغبت أقنعه أنه يمكن أن يطير بعد القفز من مبنى مكون من 19 طابقًا بعد أن تحول إلى ذلك بعد انفصال. ظهرت قضية أكثر خطورة حيث استخدم أحد أخصائي علاج شاتغبت الذكاء الاصطناعى في سن 29 عامًا أثناء مرور مرحلة صعبة لعدة أشهر ، وانتحر في وقت لاحق. ذكرت والدتها أنها أقصرت جميع خططها لهذا المعالج الافتراضي.

هذا خطأ لا نهائي مزعج نعمل على إصلاحه! الجوزاء لا يملك هذا السيئ في اليوم :)
- لوجان كيلباتريك (efficiallogank) 7 أغسطس ، 2025
هذه مجرد حالات قليلة من بين الكثيرين حيث عانى البشر ليسوا فقط عاطفيين ، ولكن في بعض الأحيان مالية ، وحتى فقد حياتهم بسبب نماذج الذكاء الاصطناعى. عندما تظهر حوادث مثل وثيقة Meta التي تم تسريبها ، هناك غضب ، ولكن يبدو أن الجميع يتقدمون ببساطة ، مما يتيح لثورة الذكاء الاصطناعى أن تسحق حياة أخرى. مرارًا وتكرارًا ، تعثرت AI chatbots ، وكل ما حصلنا عليه كمستهلكين في المقابل هو اعتذارات سطحية وطمأنفة بأن العلامات التجارية التي استثمرت مليارات الدولارات في الحصول على أفضل المواهب لتصميم وتسويقها تعمل على "إصلاحها"
المستهلكون ... أو خنازير غينيا؟
على عجلهم للمضي قدمًا في سباق الذكاء الاصطناعي ، يبدو أن العديد من العلامات التجارية التقنية تعامل المستهلكين تقريبًا كخنازير غينيا. إذا كان هذا يبدو قاسياً للغاية ، ففكر في حقيقة أن بعض أكبر العلامات التجارية التقنية في العالم (Meta ، X ، Google ، Openai ، على سبيل المثال لا الحصر) هي تنويع المنتجات وإصدارها دون النظر إلى عواقبها المحتملة. غالبًا ما تقوم هذه العلامات التجارية بإنشاء ميزات جديدة وتعبئتها وشحنها في أي وقت من الأوقات. بمجرد ظهور ميزة إشكالية ، يتم إصدار اعتذار عام ، وهو "ثابت" ، ثم ننتقل إلى الإصدار التالي ، والذي يتجه عمومًا في أي وقت من الأوقات. في كل هذه الفوضى ، فإن ما يضيع غالبًا (بصرف النظر عن رفاهية الإنسان) هو المساءلة.
تصبح المساءلة أكثر أهمية عندما تفكر في أن هذه المنتجات تأتي من العلامات التجارية الضخمة التي تحتوي على قاعدة مستهلك تسير على الملايين. إنه شيء واحد بالنسبة لمؤسسة صغيرة نسبيًا أن ترتكب خطأ أو ارتكاب إشراف ، ولكن عندما تفعل أمثال Meta و Openai و Google ، فإن الأخطاء لها إمكانات كارثية. بالتأكيد ، يجب أن يكون هناك نوع من المساءلة هنا؟ بعض التداعيات لأولئك الذين أصدروا منتجًا أضروا بشخص ما ، دون إعطائهم أي تحذير؟
أم أن "ثابتة" بما فيه الكفاية؟
في اندفاعهم لتطوير وإطلاق نماذج جديدة من الذكاء الاصطناعي ، يبدو أن عمالقة التكنولوجيا هؤلاء قد طبيعوا ميزات وخدمات إطلاق وخدمات قد تكون خطرة على المستخدمين. من المقلق للغاية ، يبدو أنه لا يوجد أي حدود أخلاقية أو مراقبة أو شرطة يمكن أن تمنع العلامات التجارية التقنية من استخدام مستهلكيها كجرذان في المختبر. لأنه ليس كما لو أن الضمانات لا يمكن دمجها في وكلاء الذكاء الاصطناعى.
اللوائح والضمان ، أي شخص؟
النقطة التي يجب فهمها هنا هي أن هذه الدردشة السحرية التي يبدو أنها تم تطويرها بالفعل من قبل البشر. البشر الذين تمكينهم ويسمحون لهذه الدردشة بالتصرف بطريقة معينة. هناك سبب يجعل Deepseek يرفض الإجابة على الأسئلة التي لا تتماشى مع السياسة الصينية أو لماذا تم تصميم ChatGPT على وجه التحديد لعدم إنشاء الشبقية. يمكن بناء القيود ، والضمان ، والتنبيهات. حقيقة أنها لا تُظهر فقط أن هناك أشخاصًا يعرضون العلم الأخضر على العلم الأحمر من طرازات الذكاء الاصطناعي. واستنادا إلى التردد الذي تحدث فيه مثل هذه الحوادث المثيرة للقلق ، فمن الواضح أنه ليس هناك عدد كبير جدًا من جانب العلامة التجارية يدفعون ثمنًا لأحكامهم أو عدم وجودها.
كل هذا يمكن إصلاحه مع الشفافية في الإرشادات والسياسات. غالبًا ما يكون الأمر كذلك مع العديد من المنتجات الأخرى ، ولكن لسبب ما ، يبدو أن الذكاء الاصطناعى معفيًا نسبيًا من هذا اللائحة. إذا تمكنت شركات التكنولوجيا فقط من رسم خطوط حمراء مميزة فيما يتعلق بما هو جيد وما هو غير ذلك ، وإعطاء التحذيرات الكافية للجمهور ، فإن نصف هذه المشاكل سيتوقف عن الوجود. الجمع بين هذا مع قوانين أكثر صرامة (قامت إلينوي بتقييد استخدام الذكاء الاصطناعى كمعالج) ، وعقوبات ضخمة بدلاً من الاعتذارات الضعيفة التي لا تغير أي شيء ، والمزيد من الإشراف البشري بعد إطلاق نموذج الذكاء الاصطناعي ، ومن يدري ، يمكن أن تكون نماذج الذكاء الاصطناعي آمنة نسبيًا.
في حين أن ميزة المحرك المبكرة مهمة في مجال ينمو بسرعة مثل الذكاء الاصطناعي ، فإننا نشعر بقوة أنه لا ينبغي أن يأتي على حساب سلامة المستخدم. لا يمكن بناء منصة AI آمنة ومستدامة إلا مع العناية الواجبة. وهذا يستغرق وقتًا - الوقت الذي لا يبدو أن العلامات التجارية تفكر في الاستثمار. في الوقت الحالي ، تدير العلامات التجارية التقنية سباق الذكاء الاصطناعي على حساب الأطفال والمجتمعات المهمشة والأشخاص المعرضين للخطر. وهم يفلتون من مجرد قول "لقد أصلحناها".