تكنولوجيا

مخاطر الذكاء الاصطناعي: هل يجب وقف التنمية؟

ما مدى خطورة الذكاء الاصطناعي على البشرية؟ في رسالة مفتوحة ، دعا الباحثون ورجال الأعمال في مجال الذكاء الاصطناعي إلى وقف مواصلة تطوير أنظمة الذكاء الاصطناعي التي تتجاوز مستوى ChatGPT-4 ، وهو أحدث نموذج لغوي طورته شركة OpenAI ، لمدة ستة أشهر على الأقل.

كانت التحذيرات حول تفوق العقل الرقمي موجودة منذ فترة طويلة. قال عالم الكمبيوتر جيفري هينتون في مقابلة حديثة على التلفزيون الأمريكي: “حتى وقت قريب كنت أعتقد أنه سيكون هناك 20 إلى 50 عامًا أخرى قبل أن يكون لدينا الذكاء الاصطناعي العام”. “الآن أعتقد أنه من المحتمل أن يكون 20 عامًا أو أقل.” وعندما سئل عن فرص الذكاء الاصطناعي “في القضاء على” البشرية ، قال هينتون ، الذي يُجري بحثًا في Google وجامعة تورنتو ، “أعتقد أنه ليس مستبعدًا.”

خطاب مخيف

مع “الذكاء الاصطناعي العام” تعني هينتون القدرة الافتراضية حتى الآن لبرنامج الكمبيوتر على تعلم كل قدرة فكرية للإنسان. ما إذا كانت مولدات الصوت الجديدة تقترب بشكل خطير من ذلك أمر مثير للجدل إلى حد كبير. ومع ذلك ، فإن الرسالة المفتوحة تتعامل أيضًا مع مخاطر أكثر وضوحًا ، مثل نشر معلومات مضللة بمساعدة نماذج اللغة الجديدة. أثار هذا الخلط انتقادات: يصف توماس جي ديتريتش ، الأستاذ الفخري للذكاء الاصطناعي والرئيس السابق لجمعية النهوض بالذكاء الاصطناعي ، الرسالة بأنها “ارتباك بين الخطاب المخيف والسياسات غير الفعالة”.

وبالمثل ، غرد أرفيند نارايانان ، عالم الكمبيوتر في جامعة برينستون: “هذه الرسالة ، من سخرية القدر ولكن ليس من المستغرب ، تغذي الضجيج المحيط بالذكاء الاصطناعي وتجعل من الصعب معالجة الضرر الحقيقي للذكاء الاصطناعي الذي يحدث بالفعل. أظن أنه يفيد الشركات المصممة لتنظيمها ، وليس المجتمع “.

وفقًا لـ Narayanan ، تنشأ المخاطر بشكل أساسي من آلاف التطبيقات التي تم تضمين مولدات الكلام فيها بالفعل – ومن المكونات الإضافية التي يتم تضمينها بدورها في روبوتات المحادثة. “الوقف الاختياري لا يفعل شيئًا لمعالجة هذا الأمر. هذا لا يجعله يأتي بنتائج عكسية فحسب ، بل إنه مجرد محير “.

إجراء خاطئ

وبالكاد وقع باحثو الذكاء الاصطناعي من ألمانيا على الرسالة. يوضح Kristian Kersting ، المدير المشارك لمركز Hessian للذكاء الاصطناعي: “لن ينجح الاستراحة لمدة ستة أشهر وهو إجراء خاطئ”. سيكون “تباطؤ السباق” أمرًا جيدًا من وجهة نظره ، لكن هذا لن يتحقق مع الانقطاع ، وستحصل الشركات التي لديها بالفعل مثل هذه النماذج على ميزة. يقول كيرستينج: “علينا أن نتعلم كيفية استخدام أنظمة الذكاء الاصطناعي بعناية أكبر بدلاً من وقف البحث (العام) عنها”.

سيكون من الحكمة التوقف لفهم هذه الأنظمة.

برنهارد شولكوف ، مدير معهد ماكس بلانك للأنظمة الذكية في توبنغن

يوافق بيورن أومير ، مطور مولد الصور “Stable Diffusion” والأستاذ في LMU Munich ، “بشكل أساسي ، أرحب بهذا النهج”. لكن الرسالة لا تذكر إلا بشكل غامض أين يجب أن يكون الحد بالضبط. ماذا تعني عبارة “أقوى من GPT-4″ بالضبط؟ وكيف تريد مراقبة وإيقاف التطوير في الشركات الخاصة الكبيرة؟ ”

يعلق برنهارد شولكوبف ، مدير معهد ماكس بلانك للأنظمة الذكية في توبنغن: “سيكون من الحكمة التوقف لفهم هذه الأنظمة والتفكير في كيفية تعامل مجتمعنا معها. يبدو إقناع جميع الشركات والبلدان بالوقف الاختياري أمرًا غير واقعي – والأهم من ذلك كله الآن أن نفكر بجدية في كيفية حماية أنفسنا من الآثار السلبية. يؤثر هذا على الأنظمة نفسها ، ولكن أيضًا على كيفية تعاملنا معها “.

“رسالة غبية”

من بين الأصوات الناقدة على وجه الخصوص الخبراء الذين تعاملوا مع الاستخدام الأخلاقي للذكاء الاصطناعي لفترة طويلة. ومن بين هؤلاء ، Timnit Gebru ، أحد مؤلفي دراسة شهيرة فحصت بشكل نقدي نماذج اللغة الكبيرة قبل عامين ووصفها بـ “الببغاوات العشوائية”. في الخلاف حول هذا الأمر ، تركت Google ، حيث شاركت في رئاسة قسم أخلاقيات الذكاء الاصطناعي.

في الرسالة المفتوحة التي وقعها إيلون ماسك ومؤسس شركة آبل ستيف وزنياك ، من بين آخرين ، يُشار إلى عملهم الآن باعتباره أول دليل على المخاطر المحتملة. تتحدث جبرو عن “رسالة غبية” وترى ، مثل مؤلفة مشاركتها إميلي بندر ، أن المبالغة في قدرات الذكاء الاصطناعي في الرسالة تمثل مشكلة. يقول بيندر ، الأستاذ في جامعة واشنطن: “نعم ، مختبرات الذكاء الاصطناعي في سباق جامح ، لكن لم يطور أحد” عقلًا رقميًا “وهم ليسوا على وشك ذلك”.

يتفق الباحث في دارمشتات كرستينج: “المشكلة ليست أن أنظمة الذكاء الاصطناعي حاليًا أو ستكون ذكية جدًا في المستقبل القريب – إنها غبية جدًا”. بينما يمكن لبرامج مثل ChatGPT صياغة نصوص جيدة الصوت بشكل مثير للدهشة ، فإن المبدأ الأساسي هو التنبؤ بالكلمات الأكثر ملاءمة بناءً على بيانات التدريب الضخمة. ومع ذلك ، فإنهم يخترعون الحقائق والمصادر المفترضة.

يشير مطور Open AI نفسه إلى أن الذكاء الاصطناعي “يهلوس الحقائق”. مع أحدث طراز GPT-4 ، تبلغ دقة المعلومات في العديد من الفئات حوالي 70 بالمائة ، مع أول إصدار متاح للجمهور من ChatGPT كان عادةً أقل من 60 بالمائة. ينتج عن دمج GPT-4 في محرك بحث Bing من Microsoft بشكل متكرر معلومات غير صحيحة في الاختبارات ، على الرغم من أنه من المفترض أن تثبت روابط الإنترنت صحتها مثل الحواشي السفلية.

يحذر Bender أيضًا من أن ChatGPT & Co. “تلوث نظام معلوماتنا البيئي”. هناك العديد من الأسئلة حول نماذج اللغة وشبكاتها العصبية العميقة. بدلاً من الوقف الاختياري ، هناك حاجة لمزيد من الانفتاح والشفافية في الأنظمة. يقول بندر: “سنكون أكثر قدرة على دراستها إذا وفرت معامل الذكاء الاصطناعي الشفافية حول بيانات التدريب ، وبنية النموذج ، وإجراءات التدريب”.

المصدر
tagesspiegel

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى