الولايات المتحدة

يؤمن البيت الأبيض تعهد أمان الذكاء الاصطناعي من أمازون وجوجل والمزيد من شركات التكنولوجيا الكبرى

التزمت سبع شركات أمريكية طواعية بضمان أن منتجات الذكاء الاصطناعي الخاصة بها آمنة قبل إطلاقها.

جو بايدن

الرئيس الأمريكي جو بايدن يلقي ملاحظات حول الذكاء الاصطناعي في غرفة روزفلت بالبيت الأبيض في 21 يوليو 2023 في واشنطن العاصمة.آنا موني ميكر / جيتي إيماجيس

قال الرئيس جو بايدن يوم الجمعة إن الالتزامات الجديدة من قبل أمازون وجوجل وميتا ومايكروسوفت وغيرها من الشركات التي تقود تطوير تكنولوجيا الذكاء الاصطناعي لتلبية مجموعة من ضمانات الذكاء الاصطناعي التي توسط فيها البيت الأبيض هي خطوة مهمة نحو إدارة الوعود والمخاطر “الهائلة” التي تشكلها التكنولوجيا.

أعلن بايدن أن إدارته قد حصلت على التزامات طوعية من سبع شركات أمريكية تهدف إلى ضمان سلامة منتجات الذكاء الاصطناعي الخاصة بها قبل إطلاقها. تتطلب بعض الالتزامات إشراف طرف ثالث على طريقة عمل أنظمة الذكاء الاصطناعي التجارية ، على الرغم من أنها لا توضح بالتفصيل من سيقوم بمراجعة التكنولوجيا أو محاسبة الشركات.

قال بايدن: “يجب أن نكون واضحين ويقظين بشأن التهديدات التي يمكن أن تشكلها التقنيات الناشئة” ، مضيفًا أن الشركات لديها “التزام أساسي” لضمان سلامة منتجاتها.

وأضاف بايدن: “لقد أظهرت لنا وسائل التواصل الاجتماعي الضرر الذي يمكن أن تلحقه التكنولوجيا القوية بدون وجود الضمانات المناسبة”. “هذه الالتزامات هي خطوة واعدة ، ولكن لدينا الكثير من العمل لننجزه معًا.”

أدى اندفاع الاستثمار التجاري في أدوات الذكاء الاصطناعي التوليدية التي يمكنها كتابة نص مقنع يشبه الإنسان وإخراج صور جديدة ووسائل إعلام أخرى إلى إثارة الانبهار العام وكذلك القلق بشأن قدرتها على خداع الأشخاص ونشر المعلومات المضللة ، من بين مخاطر أخرى.

قال البيت الأبيض في بيان إن عمالقة التكنولوجيا الأربعة ، جنبًا إلى جنب مع OpenAI ، صانع ChatGPT والشركات الناشئة Anthropic and Inflection ، التزموا بإجراء اختبارات أمنية “أجراها جزئيًا خبراء مستقلون” للحماية من المخاطر الرئيسية ، مثل الأمن البيولوجي والأمن السيبراني.

سيبحث هذا الاختبار أيضًا في إمكانية حدوث أضرار مجتمعية ، مثل التحيز والتمييز ، والمزيد من المخاطر النظرية حول أنظمة الذكاء الاصطناعي المتقدمة التي يمكنها التحكم في الأنظمة المادية أو “التكرار الذاتي” عن طريق نسخ نفسها.

التزمت الشركات أيضًا بأساليب الإبلاغ عن نقاط الضعف في أنظمتها واستخدام العلامات المائية الرقمية للمساعدة في التمييز بين الصور الحقيقية والتي تم إنشاؤها بواسطة الذكاء الاصطناعي والمعروفة باسم deepfakes.

وقال البيت الأبيض إنهم سيبلغون علنًا عن العيوب والمخاطر في تقنيتهم ​​، بما في ذلك التأثيرات على الإنصاف والتحيز.

تهدف الالتزامات الطوعية إلى أن تكون وسيلة فورية لمعالجة المخاطر قبل دفعة طويلة الأجل لحمل الكونجرس على إصدار قوانين تنظم التكنولوجيا. يخطط المسؤولون التنفيذيون في الشركة للاجتماع مع بايدن في البيت الأبيض يوم الجمعة حيث يتعهدون باتباع المعايير.

قال بعض المدافعين عن لوائح الذكاء الاصطناعي إن خطوة بايدن هي بداية ولكن هناك المزيد الذي يتعين القيام به لمحاسبة الشركات ومنتجاتها.

قال أمبا كاك ، المدير التنفيذي لمعهد AI Now: “لا يكفي إجراء مداولات مغلقة مع جهات فاعلة من الشركات تؤدي إلى ضمانات طوعية”. “نحن بحاجة إلى مداولات عامة واسعة النطاق ، وسيؤدي ذلك إلى إثارة قضايا لن تلتزم بها الشركات طواعية على الأرجح لأنها ستؤدي إلى نتائج مختلفة جوهريًا ، تلك التي قد تؤثر بشكل مباشر على نماذج أعمالها.”

قال زعيم الأغلبية في مجلس الشيوخ ، تشاك شومر ، من ولاية نيويورك ، إنه سيقدم تشريعات لتنظيم الذكاء الاصطناعي. وقال في بيان إنه سيعمل بشكل وثيق مع إدارة بايدن “وزملائنا من الحزبين” للبناء على التعهدات التي تم التعهد بها يوم الجمعة.

دعا عدد من المسؤولين التنفيذيين في مجال التكنولوجيا إلى التنظيم ، وذهب العديد منهم إلى البيت الأبيض في مايو للتحدث مع بايدن ونائبة الرئيس كامالا هاريس ومسؤولين آخرين.

قال رئيس مايكروسوفت براد سميث في مدونة يوم الجمعة إن شركته تقدم بعض الالتزامات التي تتجاوز تعهد البيت الأبيض ، بما في ذلك دعم التنظيم الذي من شأنه أن يخلق “نظام ترخيص للنماذج عالية القدرة”.

لكن بعض الخبراء والمنافسين المبتدئين قلقون من أن نوع التنظيم الذي يتم طرحه يمكن أن يكون نعمة لأصحاب العمل الأثرياء بقيادة أوبن إيه آي وجوجل ومايكروسوفت ، حيث يتفوق اللاعبون الصغار بسبب التكلفة العالية لجعل أنظمة الذكاء الاصطناعي الخاصة بهم المعروفة باسم نماذج اللغة الكبيرة تلتزم بالقيود التنظيمية.

يشير تعهد البيت الأبيض إلى أنه ينطبق في الغالب فقط على النماذج “الأكثر قوة بشكل عام من حدود الصناعة الحالية” ، التي حددتها النماذج المتاحة حاليًا مثل OpenAI’s GPT-4 ومولد الصور DALL-E 2 والإصدارات المماثلة من Anthropic و Google و Amazon.

كان عدد من البلدان يبحث في طرق لتنظيم الذكاء الاصطناعي ، بما في ذلك المشرعون في الاتحاد الأوروبي الذين كانوا يتفاوضون بشأن قواعد الذكاء الاصطناعي الشاملة للكتلة المكونة من 27 دولة والتي يمكن أن تقيد التطبيقات التي يُعتقد أنها تنطوي على أعلى المخاطر.

قال الأمين العام للأمم المتحدة أنطونيو غوتيريش مؤخرًا إن الأمم المتحدة هي “المكان المثالي” لاعتماد المعايير العالمية ، وعين مجلسًا يقدم تقريرًا عن خيارات حوكمة الذكاء الاصطناعي العالمية بحلول نهاية العام.

كما قال غوتيريش إنه يرحب بدعوات بعض الدول لإنشاء هيئة جديدة للأمم المتحدة لدعم الجهود العالمية لإدارة الذكاء الاصطناعي ، مستوحاة من نماذج مثل الوكالة الدولية للطاقة الذرية أو الهيئة الحكومية الدولية المعنية بتغير المناخ.

قال البيت الأبيض يوم الجمعة إنه تشاور بالفعل بشأن الالتزامات الطوعية مع عدد من الدول.

يركز التعهد بشكل كبير على مخاطر السلامة ولكنه لا يعالج المخاوف الأخرى بشأن أحدث تقنيات الذكاء الاصطناعي ، بما في ذلك التأثير على الوظائف والمنافسة في السوق ، والموارد البيئية المطلوبة لبناء النماذج ، ومخاوف حقوق النشر المتعلقة بالكتابات والفن والأعمال اليدوية البشرية الأخرى المستخدمة لتعليم أنظمة الذكاء الاصطناعي كيفية إنتاج محتوى شبيه بالبشر.

الأسبوع الماضي ، OpenAI و وكالة اسوشيتد برس أعلنت عن صفقة لشركة AI لترخيص أرشيف القصص الإخبارية لوكالة أسوشييتد برس. لم يتم الكشف عن المبلغ الذي ستدفعه مقابل هذا المحتوى.

المصدر
billboard

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى