تقارير

الروبوتات المتحيزة؟ المشرعون الأمريكيون يتعاملون مع “الغرب المتوحش” لتجنيد الذكاء الاصطناعي

بعد التقدم دون جدوى لما يقرب من 100 وظيفة عبر منصة الموارد البشرية Workday، لاحظ ديريك موبلي وجود نمط مريب.

وقال لرويترز: “كنت أتلقى كل رسائل الرفض هذه في الساعة الثانية أو الثالثة صباحا”. “كنت أعلم أنه يجب أن يكون آليًا.”

موبلي، وهو رجل أسود يبلغ من العمر 49 عامًا وحاصل على شهادة في التمويل من كلية مورهاوس في جورجيا، عمل سابقًا كموظف قروض تجارية، من بين وظائف أخرى في مجال التمويل. تقدم بطلب للحصول على وظائف متوسطة المستوى عبر مجموعة من القطاعات، بما في ذلك الطاقة والتأمين، ولكن عندما استخدم منصة Workday، قال إنه لم يحصل على مقابلة واحدة أو معاودة الاتصال، وغالبًا ما كان يضطر إلى قبول العمل المؤقت أو المستودعات التحولات لتغطية نفقاتهم.

يعتقد موبلي أنه تعرض للتمييز من خلال خوارزميات الذكاء الاصطناعي الخاصة بـ Workday.

في فبراير/شباط، رفع ما وصفه محاموه بأنه أول دعوى جماعية من نوعها ضد Workday، زاعمًا أن نمط الرفض الذي شهده هو وآخرون يشير إلى استخدام خوارزمية تميز ضد الأشخاص السود والمعاقين. أو أكبر من 40 عامًا. وفي بيان لرويترز، قالت Workday إن الدعوى القضائية التي رفعتها موبلي “خالية تمامًا من الادعاءات والتأكيدات الواقعية”، وقالت إن الشركة ملتزمة بـ “الذكاء الاصطناعي المسؤول”.

إن السؤال حول الشكل الذي قد يبدو عليه “الذكاء الاصطناعي المسؤول” يقع في قلب الحملة القوية المتزايدة ضد الاستخدام غير المقيد للأتمتة في سوق التوظيف في الولايات المتحدة.

في جميع أنحاء الولايات المتحدة، تتصارع سلطات الولايات والسلطات الفيدرالية حول كيفية تنظيم استخدام الذكاء الاصطناعي في توظيف العمالة والحماية من التحيز الخوارزمي.

يستخدم الآن حوالي 85 في المائة من كبار أصحاب العمل في الولايات المتحدة شكلاً من أشكال الأدوات الآلية أو الذكاء الاصطناعي لفحص المرشحين للتعيين أو تصنيفهم.

يتضمن ذلك استخدام أدوات فحص السيرة الذاتية التي تقوم تلقائيًا بمسح طلبات المتقدمين، وأدوات التقييم التي تحدد مدى ملاءمة مقدم الطلب لوظيفة بناءً على اختبار عبر الإنترنت، أو أدوات التعرف على الوجه أو التعرف على المشاعر التي يمكنها تحليل مقابلة فيديو.

في مايو/أيار، أصدرت لجنة تكافؤ فرص العمل (EEOC)، وهي الوكالة الفيدرالية التي تطبق قانون الحقوق المدنية في أماكن العمل، مبادئ توجيهية جديدة لمساعدة أصحاب العمل على منع التمييز عند استخدام عمليات التوظيف الآلية.

في أغسطس/آب، قامت لجنة تكافؤ فرص العمل بتسوية أول قضية لها على الإطلاق تعتمد على الأتمتة، وفرضت غرامة قدرها 365 ألف دولار على iTutorGroup لاستخدامها برنامجًا لرفض المتقدمين الذين تزيد أعمارهم عن 40 عامًا تلقائيًا. كما تدرس سلطات المدينة والولاية الأمر أيضًا. قال مات شيرير، المحامي بمركز الديمقراطية والتكنولوجيا (CDT).

لعبة بلاك بول الخوارزمية

يمثل التحيز المدعوم بالتكنولوجيا خطرًا لأن الذكاء الاصطناعي يستخدم الخوارزميات والبيانات والنماذج الحسابية لتقليد الذكاء البشري. فهو يعتمد على “بيانات التدريب” وإذا كان هناك تحيز في تلك البيانات، والتي غالبًا ما تكون تاريخية، فيمكن تكرار ذلك في برنامج الذكاء الاصطناعي. في عام 2018، على سبيل المثال، تخلت أمازون عن منتج فحص السيرة الذاتية الذي يعتمد على الذكاء الاصطناعي والذي بدأ في خفض تصنيف المتقدمين تلقائيًا بكلمة “سيدات” في سيرتهم الذاتية، كما هو الحال في “قائدة نادي الشطرنج النسائي”.

ويرجع ذلك إلى أن نماذج الكمبيوتر في أمازون تم تدريبها على فحص المتقدمين من خلال مراقبة الأنماط على مدى عقد من الزمن. وهذا هو نوع التمييز الذي يقلق براد هويلمان سيجال، عضو مجلس الشيوخ عن ولاية نيويورك. وقال: “لقد ثبت أن العديد من هذه الأدوات تنتهك خصوصية العمال بشكل غير مبرر وتميز ضد النساء والأشخاص ذوي الإعاقة والأشخاص الملونين”.

في إبريل/نيسان، قالت لجنة التجارة الفيدرالية وثلاث وكالات فيدرالية أخرى، بما في ذلك لجنة تكافؤ فرص العمل، في بيان لها إنها تبحث في التمييز المحتمل الناشئ عن مجموعات البيانات التي تدرب أنظمة الذكاء الاصطناعي ونماذج “الصندوق الأسود” المبهمة التي تجعل من الصعب مكافحة التحيز.

يعترف بعض المدافعين عن الذكاء الاصطناعي بخطر التحيز، لكنهم يقولون إنه يمكن السيطرة عليه.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى