تكنولوجيا

يريد موظفو OpenAI وGoogle DeepMind الحق في التنبيه بشأن الذكاء الاصطناعي

قامت مجموعة مكونة من أحد عشر موظفًا (حاليًا وسابقًا) في OpenAI، بالإضافة إلى اثنين من موظفي Google DeepMind (أحدهما يعمل أيضًا في Anthropic)، بنشر رسالة مفتوحة هذا الأسبوع أعربوا فيها عن مخاوف جدية بشأن عدم وجود الرقابة الأمنية داخل صناعة الذكاء الاصطناعي. وتدعو الرسالة إلى “الحق في التنبيه على الذكاء الاصطناعي« ويؤكد الحاجة إلى حماية المبلغين عن المخالفات.

خطورة شركات الذكاء الاصطناعي التي تُركت دون مراقبة

ويزعم مؤلفو الرسالة أن شركات الذكاء الاصطناعي تمتلك معلومات “جوهرية” وغير عامة حول قدرات أنظمتها وقيودها، فضلاً عن فعالية تدابيرها الوقائية ومستويات المخاطر المرتبطة بأنواع مختلفة من الضرر. وهذه الشركات ليست ملزمة تقريبًا بمشاركة هذه المعلومات مع الحكومات أو المجتمع المدني. ويعتبر الموقعون أن عدم إجبار هذه الشركات على مشاركة هذه المعلومات طوعًا يمثل مشكلة كبيرة.

دافعت شركة OpenAI عن ممارساتها بالقول إن لديها طرقًا للإبلاغ عن المشكلات داخل الشركة. علاوة على ذلك، يضمن منشئ ChatGPT أنه لا يتيح تقنيات جديدة دون اتخاذ تدابير أمنية مناسبة.

وتشير الرسالة إلى أنه على الرغم من إعلان شركات الذكاء الاصطناعي علنًا عن التزامها بتطوير التكنولوجيا بشكل آمن، فقد حذر الباحثون والموظفون من نقص الرقابة الذي قد يؤدي إلى تفاقم المشكلات الحالية للشركة، أو خلق مشاكل جديدة. يعتقد هؤلاء الموظفون أن زيادة الحماية لأولئك الذين يختارون الإبلاغ عن مخاوف تتعلق بالسلامة ضرورية.

يقترح الموقعون على الرسالة الالتزام بأربعة مبادئ حول الشفافية والمساءلة، بما في ذلك بند ينص على أن الشركات لن تجبر الموظفين على التوقيع على اتفاقيات عدم الاستخفاف التي تحظر إثارة الأسئلة المتعلقة بمخاطر الذكاء الاصطناعي. ويطالبون أيضًا بوضع آلية للموظفين لمشاركة مخاوفهم مع أعضاء مجلس الإدارة دون الكشف عن هويتهم.

«وإلى أن تكون هناك رقابة عامة فعالة على هذه الشركات، سيكون الموظفون الحاليون والسابقون من بين القلائل الذين يمكنهم مساءلتهم أمام الجمهور.“، يذكر الرسالة. “ومع ذلك، فإن اتفاقيات السرية الواسعة تمنعنا من التعبير عن مخاوفنا إلا لتلك الشركات نفسها التي قد لا تعالج هذه القضايا.»

وتأتي الرسالة المفتوحة بعد استقالة اثنين من موظفي OpenAI الرئيسيين، المؤسس المشارك إيليا سوتسكيفر والباحث الأمني ​​جان ليك، الشهر الماضي. بعد رحيله، أعرب لايكي عن أسفه لأن شركة OpenAI تخلت عن “ثقافة الأمن” لصالح المنتجات الجذابة لعامة الناس والشركات. كما تعكس هذه الرسالة بعض تصريحات الباحث الأمني.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

Back to top button