أخبار عالمية

يدعو إيلون ماسك إلى التوقف عن تطوير الذكاء الاصطناعي “الخطير”

دعا إيلون ماسك و 1000 من قادة التكنولوجيا الآخرين ، بما في ذلك المؤسس المشارك لشركة Apple ستيف وزنياك ، إلى التوقف مؤقتًا عن “السباق الخطير” لتطوير الذكاء الاصطناعي ، والذي يخشون أنه يشكل “خطرًا عميقًا على المجتمع والإنسانية” ويمكن أن يكون له آثار “كارثية”.

في رسالة مفتوحة حول معهد مستقبل الحياة ، قال ماسك وآخرون إن الجنس البشري لا يعرف بعد النطاق الكامل للمخاطر التي ينطوي عليها تطوير التكنولوجيا.

إنهم يطلبون من جميع مختبرات الذكاء الاصطناعي التوقف عن تطوير منتجاتهم لمدة ستة أشهر على الأقل أثناء إجراء المزيد من عمليات تقييم المخاطر.

إذا رفضت أي مختبرات ، فإنهم يريدون أن “تتدخل” الحكومات. يخشى ماسك أن تصبح التكنولوجيا متطورة جدًا ، ولن تتطلب – أو تستمع – إلى تدخل بشري.

إنه خوف منتشر على نطاق واسع واعترف به الرئيس التنفيذي لمنظمة العفو الدولية – الشركة التي أنشأت ChatGPT – الذي قال في وقت سابق من هذا الشهر أنه يمكن تطوير التكنولوجيا وتسخيرها لارتكاب هجمات إلكترونية “ واسعة النطاق ”.

في رسالة مفتوحة حول منظمة مستقبل الحياة ، قال ماسك وآخرون إن البشرية لا تعرف بعد النطاق الكامل للمخاطر التي ينطوي عليها تطوير التكنولوجيا

كان ماسك ووزنياك وقادة تقنيون آخرون من بين 1120 شخصًا وقعوا الرسالة المفتوحة التي تدعو إلى وقفة على مستوى الصناعة بشأن “السباق الخطير” الحالي

أوضح كراهية إيلون ماسك للذكاء الاصطناعي: يعتقد الملياردير أنها ستؤدي إلى نهاية البشر – وهو الخوف الذي شاركه ستيفن هوكينج.

يريد Elon Musk دفع التكنولوجيا إلى حدودها المطلقة ، من السفر إلى الفضاء إلى السيارات ذاتية القيادة – لكنه يرسم الخط نحو الذكاء الاصطناعي.

شارك الملياردير لأول مرة في نفوره من الذكاء الاصطناعي في عام 2014 ، ووصفه بأنه “أكبر تهديد وجودي للبشرية” ومقارنته بـ “استدعاء الشيطان”.

في ذلك الوقت ، كشف ماسك أيضًا أنه كان يستثمر في شركات الذكاء الاصطناعي ليس لكسب المال ولكن لمراقبة التكنولوجيا في حالة خروجها عن السيطرة.

خوفه الرئيسي هو أنه في الأيدي الخطأ ، إذا أصبح الذكاء الاصطناعي متقدمًا ، فإنه يمكن أن يتفوق على البشر ويعني نهاية البشرية ، وهو ما يُعرف باسم التفرد.

هذا القلق مشترك بين العديد من العقول اللامعة ، بما في ذلك الراحل ستيفن هوكينج ، الذي قال لبي بي سي في عام 2014: “ إن تطوير الذكاء الاصطناعي الكامل يمكن أن يعني نهاية الجنس البشري.

“ستنطلق من تلقاء نفسها وتعيد تصميم نفسها بمعدل متزايد باستمرار.”

الذكاء الاصطناعي على الرغم من خوفه من الذكاء الاصطناعي ، استثمر ماسك في مجموعة Vicarious ، DeepMind للذكاء الاصطناعي ومقرها سان فرانسيسكو ، والتي استحوذت عليها Google و OpenAI منذ ذلك الحين ، مما أدى إلى إنشاء برنامج ChatGPT الشهير الذي أحدث ثورة في العالم في الأشهر الأخيرة.

خلال مقابلة عام 2016 ، أشار ماسك إلى أنه هو و OpenAI أنشأوا الشركة من أجل “دمقرطة تكنولوجيا الذكاء الاصطناعي لجعلها متاحة على نطاق واسع.”

أسس ماسك OpenAI مع سام التمان ، الرئيس التنفيذي للشركة ، ولكن في عام 2018 حاول الملياردير السيطرة على الشركة الناشئة.

تم رفض طلبه ، مما أجبره على ترك OpenAI والمضي قدمًا في مشاريعه الأخرى.

أطلقت شركة OpenAI برنامج ChatGPT في نوفمبر ، والذي حقق نجاحًا فوريًا في جميع أنحاء العالم.

روبوت المحادثة هو نموذج لغوي كبير تم تدريبه على كمية هائلة من البيانات النصية ، مما يسمح له بإنشاء نص يشبه الإنسان بشكل مخيف استجابةً لموجه معين.

يستخدم ChatGPT لكتابة الأوراق البحثية والكتب والمقالات الإخبارية ورسائل البريد الإلكتروني والمزيد.

وبينما ينعم Altman بمجده ، يهاجم Musk ChatGPT من جميع الأطراف.

ويقول إن الذكاء الاصطناعي “استيقظ” وينحرف عن مهمة OpenAI غير الربحية الأصلية.

تم إنشاء OpenAI كمصدر مفتوح (وهذا هو السبب في أنني أطلقت عليها اسم “Open” AI) ، وهي شركة غير ربحية لتكون بمثابة ثقل موازن لـ Google ، ولكنها الآن أصبحت شركة مغلقة المصدر وذات أقصى ربح تسيطر عليها Microsoft بشكل فعال ، غرد ماسك في فبراير.

على الرغم من أنه قد يبدو أن OpenAI مدرج في قائمة أهداف ماسك ، إلا أن الملياردير لا يزال قلقًا بشأن وصول الذكاء الاصطناعي إلى التفرد.

كلمة “التفرد” تصنع موجات في جميع أنحاء العالم مع تقدم الذكاء الاصطناعي بطرق لا تُرى إلا في الخيال العلمي – ولكن ماذا تعني في الواقع؟

بعبارات بسيطة ، يصف التفرد مستقبلًا افتراضيًا تتفوق فيه التكنولوجيا على الذكاء البشري وتغير مسار تطورنا.

قال الخبراء إنه بمجرد وصول الذكاء الاصطناعي إلى هذه النقطة ، سيكون قادرًا على الابتكار أسرع بكثير من البشر.

هناك طريقتان يمكن أن يحققهما هذا التقدم ، أولهما يؤدي إلى عمل البشر والآلات معًا لخلق عالم أكثر ملاءمة للإنسانية.

على سبيل المثال ، يمكن للبشر فحص وعيهم وتخزينه في جهاز كمبيوتر حيث سيعيشون إلى الأبد.

السيناريو الثاني هو أن الذكاء الاصطناعي يصبح أقوى من البشر ، ويسيطر على البشر ويجعلهم عبيدًا له – ولكن إذا كان هذا صحيحًا ، فهو بعيد المنال في المستقبل البعيد.

يبحث الباحثون الآن عن علامات على وصول الذكاء الاصطناعي إلى التفرد ، مثل قدرة التكنولوجيا على ترجمة الكلام بدقة الإنسان وأداء المهام بشكل أسرع.

يتوقع راي كورزويل ، مهندس Google السابق ، الوصول إلى التفرد بحلول عام 2045.

لقد أجرى 147 تنبؤًا حول التقدم التكنولوجي منذ أوائل التسعينيات وكان 86 بالمائة منهم صحيحًا.

يقولون إن مختبرات الذكاء الاصطناعي “ عالقة حاليًا في سباق خارج نطاق السيطرة لتطوير ونشر عقول رقمية أكثر قوة لا يمكن لأي شخص – ولا حتى منشئوها – فهمها أو التنبؤ بها أو التحكم فيها بشكل موثوق. ”

وجاء في الرسالة: “يجب تطوير أنظمة ذكاء اصطناعي قوية فقط بمجرد أن نكون واثقين من أن آثارها ستكون إيجابية وأن مخاطرها ستكون تحت السيطرة”.

لم يوقع أي شخص من Google أو Microsoft – ممن يعتبرون في طليعة تطوير التكنولوجيا -.

تفتقد قائمة الموقعين أيضًا إلى مدخلات من رؤساء وسائل التواصل الاجتماعي أو أولئك الذين يديرون Quora أو Reddit ، الذين يُعتقد على نطاق واسع أن لديهم معرفة بالموضوع أيضًا.

كما تناولت الرسالة بالتفصيل المخاطر المحتملة على المجتمع والحضارة بسبب أنظمة الذكاء الاصطناعي التنافسية البشرية في شكل اضطرابات اقتصادية وسياسية ، ودعت المطورين إلى العمل مع صانعي السياسات بشأن الحوكمة والسلطات التنظيمية.

قال الرئيس التنفيذي لشركة OpenAI ، سام ألتمان ، الذي لم يوقع على الخطاب ، إن الناس يجب أن يكونوا سعداء لأنهم “خائفون قليلاً” من التكنولوجيا

تأتي الرسالة في الوقت الذي انضمت فيه قوة شرطة الاتحاد الأوروبي يوروبول يوم الاثنين إلى مجموعة من المخاوف الأخلاقية والقانونية بشأن الذكاء الاصطناعي المتقدم مثل ChatGPT ، محذرة من احتمال إساءة استخدام النظام في محاولات التصيد والمعلومات المضللة والجرائم الإلكترونية.

منذ إطلاقه العام الماضي ، حث ChatGPT التابع لشركة OpenAI ، المدعوم من Microsoft ، المنافسين على إطلاق منتجات مماثلة ، والشركات لدمجها أو تقنيات مماثلة في تطبيقاتهم ومنتجاتهم.

يحاول ماسك وقف – أو على الأقل إعاقة – النمو السريع لتكنولوجيا الذكاء الاصطناعي لسنوات.

في عام 2017 ، حذر ماسك من أن البشرية “ تستدعي الشيطان ” في سعيها وراء التكنولوجيا.

بالذكاء الاصطناعي ، نحن نستدعي الشيطان.

‘أنت تعرف كل تلك القصص حيث يوجد الرجل ذو النجم الخماسي والمياه المقدسة وهو مثل ، نعم ، إنه متأكد من أنه يستطيع التحكم في الشيطان؟ قال في مقال لمجلة فانيتي فير.

كان Musk أحد مؤسسي OpenAI – الشركة التي أنشأت ChatGPT – في عام 2015.

كان نيته أن تعمل كمنظمة غير ربحية مكرسة للبحث في المخاطر التي قد يشكلها الذكاء الاصطناعي على المجتمع.

يُذكر أنه يخشى أن يكون البحث متخلفًا عن Google ، وأن ماسك يريد شراء الشركة. تم رفضه.

الآن ، قال الرئيس التنفيذي سام التمان – الذي لم يوقع على خطاب ماسك – إنه يهاجم الذكاء الاصطناعي علانية.

من الواضح أن Elon يهاجمنا البعض على Twitter الآن على عدد قليل من المتجهات المختلفة.

وقال: “أعتقد أنه ، لأسباب مفهومة ، متوتر حقًا بشأن سلامة الذكاء الاصطناعي العام”.

يقول ألتمان إنه منفتح على “التعليقات” حول GPT ويريد فهم المخاطر بشكل أفضل. في مقابلة عبر البودكاست يوم الاثنين ، قال لكس فريدمان: “ سيكون هناك ضرر بسبب هذه الأداة.

سيكون هناك ضرر ، وستكون هناك فوائد هائلة.

‘أدوات رائعة جيدة وسيئة حقيقية. وسنقلل من السيئ ونزيد من الخير.

في مقابلة أجريت في وقت سابق من هذا الشهر ، قال إن للناس الحق في أن يكونوا “خائفين قليلاً” ، وأنه كان كذلك.

يجب أن نكون حذرين هنا. أعتقد أن الناس يجب أن يكونوا سعداء لأننا خائفون قليلاً من هذا.

أنا قلق بشكل خاص من أن هذه النماذج يمكن أن تستخدم في التضليل على نطاق واسع. الآن بعد أن أصبحوا أفضل في كتابة كود الكمبيوتر ، [they] يمكن استخدامها لشن هجمات إلكترونية هجومية.

بلا لقادة التكنولوجيا لإيقاف الذكاء الاصطناعي الخطير: اقرأ الرسالة بالكامل

يمكن أن تشكل أنظمة الذكاء الاصطناعي ذات الذكاء التنافسي البشري مخاطر جسيمة على المجتمع والإنسانية ، كما يتضح من الأبحاث المكثفة والتي أقرتها أفضل مختبرات الذكاء الاصطناعي.

كما هو مذكور في مبادئ Asilomar AI المعتمدة على نطاق واسع ، يمكن أن يمثل الذكاء الاصطناعي المتقدم تغييرًا عميقًا في تاريخ الحياة على الأرض ، ويجب التخطيط له وإدارته بالعناية والموارد المناسبة. لسوء الحظ ، لا يحدث هذا المستوى من التخطيط والإدارة ، على الرغم من أن الأشهر الأخيرة شهدت أن مختبرات الذكاء الاصطناعي تخوض سباقًا خارج نطاق السيطرة لتطوير ونشر عقول رقمية أكثر قوة لا يمكن لأحد – ولا حتى منشئوها – فهمها ، التنبؤ أو التحكم بشكل موثوق.

أصبحت أنظمة الذكاء الاصطناعي المعاصرة الآن قادرة على المنافسة بين البشر في المهام العامة ، وعلينا أن نسأل أنفسنا: هل يجب أن نسمح للآلات بإغراق قنوات المعلومات لدينا بالدعاية والكذب؟ هل يجب أن نخرج جميع الوظائف آليًا ، بما في ذلك الوظائف التي تفي بالغرض؟ هل يجب أن نطور عقولًا غير بشرية قد تفوق في النهاية عددًا ، وتتفوق على الذكاء ، وتتقادم ، وتحل محلنا؟ هل يجب أن نجازف بفقدان السيطرة على حضارتنا؟ يجب عدم تفويض مثل هذه القرارات لقادة تقنيين غير منتخبين. يجب تطوير أنظمة الذكاء الاصطناعي القوية فقط بمجرد أن نكون واثقين من أن آثارها ستكون إيجابية وأن مخاطرها ستكون تحت السيطرة. يجب أن تكون هذه الثقة مبررة جيدًا وأن تزداد مع حجم التأثيرات المحتملة للنظام. ينص بيان OpenAI الأخير بشأن الذكاء العام الاصطناعي على أنه “في مرحلة ما ، قد يكون من المهم الحصول على مراجعة مستقلة قبل البدء في تدريب الأنظمة المستقبلية ، وللجهود الأكثر تقدمًا للموافقة على الحد من معدل نمو الحوسبة المستخدمة في إنشاء عارضات ازياء.” ونحن نتفق. هذه النقطة الآن.

لذلك ، ندعو جميع مختبرات الذكاء الاصطناعي إلى التوقف فورًا لمدة 6 أشهر على الأقل عن تدريب أنظمة الذكاء الاصطناعي الأكثر قوة من GPT-4. يجب أن يكون هذا التوقف علنيًا ويمكن التحقق منه ، وأن يشمل جميع الجهات الفاعلة الرئيسية. إذا لم يكن بالإمكان تفعيل مثل هذا الوقف بسرعة ، يجب على الحكومات التدخل وفرض تجميد.

يجب على مختبرات الذكاء الاصطناعي والخبراء المستقلين استخدام هذا التوقف المؤقت لتطوير وتنفيذ مجموعة من بروتوكولات السلامة المشتركة لتصميم وتطوير ذكاء اصطناعي متقدم يتم تدقيقها بدقة والإشراف عليها من قبل خبراء خارجيين مستقلين. يجب أن تضمن هذه البروتوكولات أن الأنظمة التي تلتزم بها آمنة بما لا يدع مجالاً للشك.

هذا لا يعني التوقف مؤقتًا عن تطوير الذكاء الاصطناعي بشكل عام ، بل مجرد التراجع عن السباق الخطير إلى نماذج الصندوق الأسود الأكبر حجمًا والتي لا يمكن التنبؤ بها ذات القدرات الناشئة.

يجب إعادة تركيز أبحاث وتطوير الذكاء الاصطناعي على جعل أنظمة اليوم القوية والحديثة أكثر دقة وأمانًا وقابلية للتفسير وشفافية وقوة ومتسقة وجديرة بالثقة وولاء.

بالتوازي مع ذلك ، يجب على مطوري الذكاء الاصطناعي العمل مع صانعي السياسات لتسريع تطوير أنظمة حوكمة قوية للذكاء الاصطناعي. يجب أن تشمل هذه على الأقل ما يلي: سلطات تنظيمية جديدة وقادرة مخصصة للذكاء الاصطناعي ؛ الإشراف على أنظمة الذكاء الاصطناعي عالية القدرة وتتبعها ومجموعات كبيرة من القدرات الحسابية ؛ أنظمة المصدر والعلامات المائية للمساعدة في التمييز بين الحقيقي والتركيبي ولتتبع تسربات النماذج ؛ نظام بيئي قوي للتدقيق وإصدار الشهادات ؛ المسؤولية عن الضرر الناجم عن الذكاء الاصطناعي ؛ تمويل عام قوي لأبحاث السلامة التقنية للذكاء الاصطناعي ؛ ومؤسسات ذات موارد جيدة للتعامل مع الاضطرابات الاقتصادية والسياسية الدراماتيكية (خاصة الديمقراطية) التي سيحدثها الذكاء الاصطناعي.

يمكن للإنسانية الاستمتاع بمستقبل مزدهر مع الذكاء الاصطناعي. بعد أن نجحنا في إنشاء أنظمة ذكاء اصطناعي قوية ، يمكننا الآن الاستمتاع بـ “صيف الذكاء الاصطناعي” الذي نحصد فيه المكافآت ، ونهندس هذه الأنظمة لتحقيق المنفعة الواضحة للجميع ، ومنح المجتمع فرصة للتكيف. لقد توقف المجتمع مؤقتًا عن التقنيات الأخرى باستخدام po آثار كارثية في نهاية المطاف على المجتمع.

يمكننا القيام بذلك هنا. دعونا نستمتع بصيف طويل للذكاء الاصطناعي ، وليس الاندفاع غير مستعدين للسقوط.


WIA Post

المصدر
dailymail

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى