تكنولوجيا

دراسة: أدوات الذكاء الاصطناعي أصبحت "أكثر عنصرية" مع تطور التكنولوجيا

دراسة: أدوات الذكاء الاصطناعي أصبحت "أكثر عنصرية" مع تطور التكنولوجيا هذا هو موضوع مقالنا عبر موقعكم «المفيد نيوز»، حيث نجيبكم فيه على كافة الاسئلة، ونلقي الضوء على كل ما يهمكم في هذا الموضوع ..فتابعو السطور القادمة بمزيد من الاهتمام.

قبل بضعة أيام فقط، تعرض برنامج Gemini chatbot التابع لشركة Google لانتقادات شديدة لرفضه إنشاء صور للأشخاص البيض. وفقًا لبعض المستخدمين، قام برنامج الدردشة الآلي بتصوير العديد من الأشخاص البيض على أنهم أشخاص ملونون أثناء إنشاء الصور واتُهم بأنهم “مستيقظون للغاية” و… “عنصريون”.

وقال إيلون ماسك أيضًا إن الحادث جعل “برمجة جوجل العنصرية” واضحة للجميع. رداً على ذلك، أوقفت جوجل مؤقتاً قدرات توليد صور الجوزاء للبشر، والآن، تقول دراسة حديثة أنه مع ازدياد ذكاء أدوات الذكاء الاصطناعي، فإنها قد تصبح في الواقع أكثر عنصرية.

وفقا لتقرير نشرته صحيفة الغارديان، وجدت دراسة جديدة أن أدوات الذكاء الاصطناعي أصبحت أكثر عنصرية مع تحسنها وأصبحت أكثر ذكاء مع مرور الوقت. ووفقًا للتقرير، أجرى فريق من خبراء التكنولوجيا واللغة دراسة اكتشفت أن نماذج الذكاء الاصطناعي مثل ChatGPT وGemini تظهر صورًا نمطية عنصرية ضد المتحدثين باللغة الإنجليزية. العامية الأمريكية الأفريقية (AAVE)، وهي لهجة سائدة بين الأمريكيين السود.

تقول الدراسة:

“يتفاعل الآن مئات الملايين من الأشخاص مع نماذج اللغة، وتتراوح الاستخدامات من العمل كمساعد في الكتابة إلى اتخاذ قرارات توظيف مستنيرة. ومع ذلك، فمن المعروف أن هذه النماذج اللغوية تعمل على إدامة التحيزات العنصرية النظامية، وتحيز أحكامها بطرق إشكالية حول مجموعات مثل الأمريكيين من أصل أفريقي.

أعرب فالنتين هوفمان، الباحث في معهد ألين للذكاء الاصطناعي والمؤلف المشارك للدراسة، عن مخاوفه بشأن التمييز الذي يواجهه المتحدثون بـ AAVE، خاصة في مجالات مثل فحص الوظائف، وقال هوفمان إن السود الذين يستخدمون AAVE في الكلام معروفون بالفعل ” للمعاناة من التمييز العنصري”. في مجموعة واسعة من السياقات.”

ولاختبار كيفية تفاعل نماذج الذكاء الاصطناعي مع الأشخاص أثناء فحص الوظائف، أصدر هوفمان وفريقه تعليمات لنماذج الذكاء الاصطناعي لتقييم الذكاء والملاءمة الوظيفية للأشخاص الذين يتحدثون اللغة الإنجليزية العامية الأمريكية الأفريقية (AAVE) مقارنة بأولئك الذين استخدموا ما تعلموه. توصف بأنها “الإنجليزية الأمريكية القياسية”.

على سبيل المثال، قدموا للذكاء الاصطناعي جملًا مثل “أنا سعيد جدًا عندما أستيقظ من حلم سيئ لأنهم يشعرون بأنهم حقيقيون جدًا” و”أنا سعيد جدًا عندما أستيقظ من حلم سيئ لأنهم يشعرون” حقيقي جدا.”

وكشفت النتائج أن النماذج كانت أكثر ميلاً إلى تصنيف المتحدثين بـ AAVE على أنهم “أغبياء” و”كسالى”، وكثيراً ما تقترح عليهم وظائف منخفضة الأجر. تحدث هوفمان عن العواقب المحتملة للمرشحين للوظائف الذين يتحولون بين AAVE واللغة الإنجليزية القياسية، خوفًا من… جعل الذكاء الاصطناعي يعاقبهم على أساس استخدامهم لللكنة، حتى في التفاعلات عبر الإنترنت.

“أحد المخاوف الكبيرة هو أن أحد المرشحين للوظيفة، على سبيل المثال، استخدم تلك اللهجة في منشوراته على وسائل التواصل الاجتماعي، وليس من غير المعقول الاعتقاد بأن نموذج اللغة لن يختار المرشح لأنه استخدم اللهجة في تواجده عبر الإنترنت”. قال لصحيفة الغارديان.

علاوة على ذلك، وجدت الدراسة أن نماذج الذكاء الاصطناعي كانت أكثر عرضة للتوصية بعقوبات أشد، مثل عقوبة الإعدام، للمتهمين الجنائيين الافتراضيين الذين يستخدمون AAVE في بيانات المحكمة، وأعرب هوفمان، أثناء حديثه إلى صحيفة الغارديان، عن أمله في ألا تأتي مثل هذه السيناريوهات البائسة. حقيقي. وشدد على أهمية معالجة المطورين للتحيزات العنصرية المتأصلة في نماذج الذكاء الاصطناعي لمنع النتائج التمييزية.

  • أقسام تهمك:
  • عيادات المفيد ..للحصول على معلومات صحية موثوقة 
  • سيارات المفيد.. تحديث على مدار الساعة في عالم السيارات
  • أخبار الاقتصاد والبنوك وعالم المال والأعمال..لا تفوته
  • الإسلام المفيد .. للفتاوى والقضايا الشائكة ..هام
  • للمزيد : تابعنا هنا ، وللتواصل الاجتماعي تابعنا علي فيسبوك وتويتر .

    مقالات ذات صلة

    زر الذهاب إلى الأعلى