تكنولوجيا

يحذر الخبراء من أن الذكاء الاصطناعي يمكن أن يتسبب أيضًا في خطر الانقراض

أصدر كبار علماء الذكاء الاصطناعي والباحثين تحذيرات جديدة حول المخاطر التي يشكلها الذكاء الاصطناعي على البشرية …

حذر الخبراء من المخاطر المحتملة للذكاء الاصطناعي والتي تشكل تهديدًا لوجود الحضارة. أصدر كبار علماء الذكاء الاصطناعي والباحثين وغيرهم ، الثلاثاء ، تحذيراً جديداً بشأن المخاطر التي يشكلها الذكاء الاصطناعي على البشرية. وقع المئات من الشخصيات المعروفة على هذا البيان بشأن التهديدات من الذكاء الاصطناعي ، وتم نشره على الموقع الإلكتروني لمركز أمان الذكاء الاصطناعي.

وقال البيان المكون من سطر واحد ، “إلى جانب التهديدات على المستوى المجتمعي مثل الأوبئة والحرب النووية ، يجب أن يكون الحد من خطر الانقراض الناجم عن الذكاء الاصطناعي أولوية عالمية …” وقد وقع على الرسالة أكثر من 350 مسؤولاً ، موقعة من قبل باحثين ومهندسين ، وتشمل كبار المديرين التنفيذيين من ثلاث شركات ذكاء اصطناعي كبرى – سام التمان (الرئيس التنفيذي لشركة OpenAI) وديميس هاسابيس (الرئيس التنفيذي لشركة Google DeepMind) وداريو أمودي (الرئيس التنفيذي لشركة Anthropic).

صدر هذا البيان في وقت تتزايد فيه المخاوف بشأن العيوب المحتملة للذكاء الاصطناعي.

حذر موقع مركز أمان الذكاء الاصطناعي من العديد من الكوارث …

  • يمكن استخدام الذكاء الاصطناعي كسلاح: يمكن للجهات الخبيثة أن تجعل الذكاء الاصطناعي مدمرًا للغاية ، ويهدد الوجود نفسه ، وربما يؤدي إلى عدم الاستقرار السياسي.
  • المعلومات الخاطئة الناتجة عن الذكاء الاصطناعي: نظرًا لفيضان المعلومات المضللة والمحتوى التحريضي الناتج عن الذكاء الاصطناعي ، لن يكون مجتمعنا مستعدًا للتعامل مع التحديات المهمة اليوم.
  • يمكن لأنظمة الذكاء الاصطناعي المصممة بنوايا سيئة إيجاد طرق مبتكرة لتحقيق أهدافها ، حتى على حساب القيم الفردية والمجتمعية.
  • إذا استمر تخصيص عمل مهم للآلات بهذه الطريقة ، فقد يكون هناك ضعف في المجتمع – في مثل هذه الحالة – قد يفقد البشر القدرة على تشغيل أنفسهم ويصبحون معتمدين تمامًا على الآلات ، تمامًا كما في فيلم WALL- معروض في E.

وفقًا لشبكة CNN ، قال دان هندريكس ، المدير التنفيذي لمركز أمان الذكاء الاصطناعي ، إن الوضع “يذكرنا بإصدار العلماء النوويين تحذيرات بشأن تقنياتهم الخاصة … كما قال روبرت أوبنهايمر ،” كنا نعلم أن العالم لن يكون أبدًا كما كان … ”

قال دان هندريكس أيضًا: “هناك العديد من” التهديدات الكبيرة والمباشرة “من الذكاء الاصطناعي ، وليس الانقراض فقط … على سبيل المثال – التحيز المنهجي والمعلومات المضللة والاستخدام الضار للمعلومات والهجمات الإلكترونية والتسليح” .. هذه كلها تهديدات كبيرة ، التي يجب اكتشافها لتتم معالجتها … ”

المصدر
ndtv

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى