تكنولوجيا

سام التمان: الرئيس التنفيذي لشركة OpenAI: يجب تنظيم الذكاء الاصطناعي مثل الأسلحة النووية

ومن المفارقات ، أن منشئ ChatGPT يدعو إلى تنظيم صارم للذكاء الاصطناعي. لدى رئيس OpenAI Altman خطة لهذا ويتوقع ذكاءً اصطناعيًا شاملاً بحلول نهاية العقد.

لقد كان يقود شركة OpenAI الناشئة للذكاء الاصطناعي منذ عام 2019.

سان فرانسيسكو وفقًا لسام ألتمان ، الرئيس التنفيذي لشركة OpenAI ، فإن الذكاء الاصطناعي (AI) قوي جدًا بحيث يجب تنظيمه مثل الأسلحة النووية. وطالب ألتمان يوم الأربعاء “نحتاج إلى سلطة رقابة عالمية”. تحت قيادته ، قدمت شركة OpenAI الناشئة نظام ChatGPT للذكاء الاصطناعي ، وبالتالي أشعلت السباق العالمي للحلول القائمة على الذكاء الاصطناعي.

قال ألتمان في حلقة نقاش خلال المؤتمر السنوي لمعالج الدفع Stripe في سان فرانسيسكو: “أود شيئًا مشابهًا لوكالة الطاقة الذرية للذكاء الاصطناعي”. لم يتم استخدام أي قنبلة ذرية كسلاح منذ عام 1945. قال ألتمان: “لم يخطر ببال أحد أن ذلك ممكن في ذلك الوقت”. هذا النجاح يرجع أيضا إلى وكالة الطاقة الذرية الوكالة الدولية للطاقة الذرية.

تأسست الهيئة التي تتخذ من فيينا مقراً لها في عام 1957 وتتألف من أكثر من 150 دولة. ترسل المنظمة مفتشين إلى الدول التي تستخدم المواد النووية لتوليد الطاقة. وقد حددت وتستعرض المتطلبات الأمنية لنشر واستخدام المواد النووية. كما أنها تريد التأكد من عدم استخدام المعرفة من الطاقة الذرية للأغراض العسكرية ، على سبيل المثال لبناء قنابل ذرية.

تقوم Microsoft بدمج العديد من تقنيات OpenAI

يعتبر OpenAI مزودًا رائدًا لنماذج اللغة القائمة على الذكاء الاصطناعي. قدم ألتمان الدعم المالي لتأسيس الشركة في عام 2015 وتولى منصب الرئيس التنفيذي في عام 2019. في الأصل ، تم تأسيس OpenAI كمؤسسة غير ربحية ، لكن Altman أنشأ شركة فرعية تجارية توفر الوصول إلى أنظمة الذكاء الاصطناعي الخاصة بالشركة مقابل المال.

يستخدم عدد من الشركات أنظمة الذكاء الاصطناعي من OpenAI. أحد الشركاء المقربين هو Microsoft مطور الأجهزة والبرمجيات ، والذي وفقًا لتقديرات الصناعة استثمر حوالي 13 مليار دولار في OpenAI. تقوم Microsoft حاليًا بدمج أنظمة الذكاء الاصطناعي الخاصة بـ OpenAI في جميع منتجاتها تقريبًا.

خبير: الذكاء الاصطناعي يمكن أن يكون أداة قوية للإرهابيين

حذر خبراء حماية البيانات والذكاء الاصطناعي من إساءة استخدام التكنولوجيا لعدة أشهر. على سبيل المثال ، يمكن التلاعب بالانتخابات من خلال انتشار ملايين المعلومات المضللة ، كما انتقد خبير الأمن السيبراني بروس شناير. بالإضافة إلى ذلك ، يمكن أن تكون أنظمة الذكاء الاصطناعي أداة قوية في أيدي الإرهابيين.

يعد الاتحاد الأوروبي حاليًا قانونًا لتنظيم الذكاء الاصطناعي. ينص مشروع “قانون الذكاء الاصطناعي” الذي يناقشه برلمان الاتحاد الأوروبي حاليًا على تصنيف حسب درجة الخطر. على سبيل المثال ، يجب تصنيف الذكاء الاصطناعي لتعيين الموظفين أو لتشغيل البنية التحتية الحيوية على أنها عالية المخاطر.

هذا يلزم المطورين والمستخدمين بمراقبة أداء نظامهم عن كثب. في فئات المخاطر المنخفضة هناك متطلبات أقل.

رئيس OpenAI ألتمان: الذكاء الاصطناعي العالمي بحلول نهاية العقد

قال ألتمان إن هناك حاليًا قفزات هائلة في تطوير الذكاء الاصطناعي. ويتوقع أنه سيكون هناك “ذكاء عام اصطناعي” (AGI) بحلول نهاية العقد. كان هذا المصطلح شائعًا بين خبراء الذكاء الاصطناعي لعقود من الزمن ، ولكن حتى الآن لم يستخدم إلا من الناحية النظرية. إنه يشير إلى الذكاء الاصطناعي الذي يمكنه فهم وإتقان أي مهمة فكرية يستطيع الإنسان القيام بها.

عرّف ألتمان الذكاء الاصطناعي العام بأنه نظام يمكنه تسريع التقدم العلمي بشكل كبير. ومع ذلك ، أضاف أنه لا يتوقع أن يعمل النظام بشكل مستقل بالكامل.

حدد ألتمان أهم التطورات الجديدة في تطبيق الذكاء الاصطناعي في مجالين. أولاً في قطاع التعليم: هنا يمكن استخدام الذكاء الاصطناعي كمساعد تعليمي يصمم محتوى التدريس لكل طالب. ثانيًا ، دعا ألتمان إلى تفاعل أفضل مع أنظمة الذكاء الاصطناعي: “علينا الابتعاد عن روبوتات المحادثة”. ومع ذلك ، لم يقدم أي أمثلة ملموسة.

Source
handelsblatt

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

Back to top button