مع تزايد الاهتمام بالذكاء الاصطناعي ، يزداد التوتر مع كيفية التعامل معه
كان لا بد أن يحدث رد الفعل العنيف.
بعد شهور من سباق شركات التكنولوجيا لطرح أدوات ذكاء اصطناعي متنوعة ، يجد القطاع نفسه الآن يخضع لمزيد من التدقيق. لكن لا يبدو أن هذا يمنع أي شخص من بنائه – أو يبطئ الكثير من شرائه.
في الأسبوع الماضي ، استهدف خبراء التكنولوجيا والمنظمون على حد سواء الجمهور صناعة الذكاء الاصطناعي المزدهرة. قدم مسؤولو الاتحاد الأوروبي تشريعات جديدة لتنظيم الذكاء الاصطناعي ، وأصدرت الحكومة البريطانية ورقة بيضاء تضع “نهجًا مؤيدًا للابتكار” للذكاء الاصطناعي وأصبحت إيطاليا أول حكومة تحظر ChatGPT الخاص بـ OpenAI بسبب مخاوف تتعلق بخصوصية البيانات.
في الولايات المتحدة ، قدم مركز الذكاء الاصطناعي والسياسة الرقمية ، وهو مركز أبحاث للذكاء الاصطناعي ، التماسًا إلى لجنة التجارة الفيدرالية للمشاركة. وفي رسالة عامة منفصلة موقعة من قبل أكثر من 1000 من قادة التكنولوجيا – بما في ذلك المؤسس المشارك لشركة Apple ستيف وزنياك ، والمؤسس المشارك لشركة Pinterest Evan Sharp والعديد من خبراء الذكاء الاصطناعي – حث الشركات نفسها على “إيقاف” مزيد من التطوير لنماذج الذكاء الاصطناعي لمدة ستة أشهر على الأقل قبل تدريب نظام ذكاء اصطناعي أقوى من نظام GPT-4 الذي أطلقه OpenAI مؤخرًا.
لا يبدو أن هذه المخاوف تمنع الشركات التي تبني الذكاء الاصطناعي من المضي قدمًا في تحديثاتها الخاصة. وسط دعوات الأسبوع الماضي إلى التباطؤ ، طرحت Microsoft إعلانات جديدة لـ Bing الذي يدعمه ChatGPT ، وروجت Adobe لشراكة جديدة مع Prudential Insurance لاستخدام الذكاء الاصطناعي في “التجارب المالية المخصصة” ، وكشفت Google عن صفقة جديدة مع منصة الترميز Replit to مزيد من برامج الذكاء الاصطناعي.
وفقًا لما ذكرته نيكول جرين ، كبيرة المحللين في شركة Gartner ، فإن الافتقار الحالي للوضوح التنظيمي حول العديد من المخاوف – مثل ملكية البيانات وحقوق الملكية الفكرية – يشكل مخاطر على استخدام ChatGPT. وقالت إن الحكومات والشركات بحاجة إلى التعاون من أجل “مساعدة المجتمع على تشكيل التوقعات” ، لكنها حذرت أيضًا من أن التنظيم الوقائي للقطاع قد يؤدي أيضًا إلى إعاقة البحث والتقدم.
“البائعون بحاجة ماسة إلى تجميع قائمة بحالات الاستخدام النشط المتأثرة بالذكاء الاصطناعي التوليدي والتعاون مع النظراء لوضع سياسات وإرشادات عملية لتوجيه الاستخدام المسؤول “، قال غرين. “يظهر البائعون الجدد كل يوم والمنظمات بحاجة إلى فهم كل من حالات الاستخدام الأساسية الخاصة بهم ، ولكن تأكد من أن لديهم معايير الشفافية والثقة والأمان اللازمة لتطبيق هذه التقنيات في دعم جهود العلامة التجارية.”
وفقًا لإصدار 2023 من “تقرير مؤشر الذكاء الاصطناعي” بجامعة ستانفورد – والذي يتتبع تقدم الذكاء الاصطناعي وتصوراته وتأثيره في جميع أنحاء العالم – زادت حوادث إساءة استخدام الذكاء الاصطناعي بمقدار 26 ضعفًا في العقد الماضي. كما وجد التقرير المتعمق الذي نُشر هذا الأسبوع أن عدد مشاريع القوانين التي تم تمريرها إلى القانون في جميع أنحاء العالم والتي تذكر “الذكاء الاصطناعي” ارتفع من 1 في عام 2016 إلى 37 في عام 2022. وربما كان من المفاجئ إلى حد ما أن يشير التقرير أيضًا إلى انخفاض استثمار الشركات في الذكاء الاصطناعي العام الماضي ولأول مرة ، انخفض من 276.1 مليار دولار في عام 2021 إلى 189.6 مليار دولار في عام 2022
بعيدًا عن العمالقة ، يصر مؤسسو بعض الشركات الناشئة التي تركز على تقنيات التسويق في مجال الذكاء الاصطناعي على وجود طريقة لتطوير الذكاء الاصطناعي بأمان على الرغم من المخاوف المستمرة.
ومن بين المتفائلين هيكاري سينجو ، الرئيس التنفيذي ومؤسس Omneky ، وهي منصة إعلانية تستخدم الذكاء الاصطناعي لإنشاء إعلانات على وسائل التواصل الاجتماعي وصور المنتجات. ووصف التحذيرات من سيطرة الذكاء الاصطناعي على الإنسانية بأنها “تفكير لوديت” ، مضيفًا أنه لا يعتقد أن “المنصة الفردية سوف تتفوق على الحكمة الجماعية للإنسانية”. على الرغم من أنه يفضل التنظيم الذي يحمي الناس من المخاطر المحتملة للذكاء الاصطناعي ، إلا أن سنجو لا يعتقد أن البشر معرضون للخطر في أي وقت قريب.
“السؤال هو حقًا ، كيف يمكن للذكاء الاصطناعي أن يمكّن البشرية من التواصل بشكل أفضل مع بعضها البعض ، وفي الواقع رفع مستوى مئات المليارات تريليون خلية عصبية في الدماغ الجماعي البشري من حيث عرض النطاق الترددي واتصالاته؟” سأل سنجو. “هذا حقًا هو المكان الذي تكمن فيه الإمكانات من حيث هذه التكنولوجيا.”
على الرغم من وصف سنجو لهم بأنهم مهووسون ، فإن خبراء الذكاء الاصطناعي المطالبين بالتباطؤ ليسوا بالضرورة مختبئين وراء هواتفهم المحمولة. العديد من رواد الذكاء الاصطناعي أمضوا عقودًا في البحث وتطوير نماذج لتطبيقات مختلفة. ومع ذلك ، واجهت الرسالة ، التي نشرتها مؤسسة Future of Life Insitute – وهي منظمة غير ربحية يدعمها Elon Musk – انتقادات خاصة بها بعد أن لاحظ المراقبون توقيعات مزيفة وحتى بعض الخبراء الذين وقعوا عليها بالفعل لم يوافقوا على نهج المنظمة.
بدلاً من التوقف التام ، يؤكد آخرون على الحاجة إلى مزيد من التعليم لتدريب المزيد من الأشخاص حول العالم على كيفية تطوير الذكاء الاصطناعي بمسؤولية ، فضلاً عن تعليم المسؤولين الحكوميين المكلفين بتنظيمها. قال بهارات كريش ، الرئيس التنفيذي السابق للتكنولوجيا في Time ، إن هناك دائمًا “سيكون جيدًا وسيئًا ، ونأمل أن يفوز الجيد على السيئ.”
قال كريش ، الذي يعمل الآن مستشارًا لشركة Fusemachines الناشئة للذكاء الاصطناعي: “لقد خرج الجني من القمقم”. “لا أعتقد أنه يمكنك حقًا إيقافه. أعتقد أن شيئًا مثل توقيع خطاب لا طائل من ورائه ، ولا أعرف ما الذي يحققه. لأنه إذا لم يكن OpenAI ، فهناك عدد من الآخرين يعملون عليه بما في ذلك الشركات التي لم نسمع عنها بعد “.
قال يائير أداتو ، الشريك المؤسس والرئيس التنفيذي لشركة Bria ، وهي شركة ناشئة للصور والفيديو ، إن المفتاح هو التفكير في القيود منذ البداية مثل استخدام محتوى من مصادر “مسؤولة”. بدلاً من تدريب الذكاء الاصطناعي لشركة Bria بمحتوى مشكوك فيه ، قال إن تغذية الذكاء الاصطناعي بنظام غذائي صحي من المعرفة والمدخلات من البداية يساعد في حل المشكلات المتعلقة بحقوق النشر وخصوصية البيانات والتحيز وسلامة العلامة التجارية.
عندما كان يجمع الأموال من المستثمرين قبل ثلاث سنوات ، قال Adato إنه كان عليه أن يختار ما إذا كان سيبدأ العمل في إنشاء المحتوى أو اكتشافه. باختياره الأول ، قرر أنه من المهم توفير بديل لنماذج مفتوحة المصدر ، لكنه أضاف أيضًا أن نموذج العمل كان أفضل.
قال أداتو: “إذا فكرت في الأمر كبداية ، فأنت لست بحاجة إلى دليل”. “إذا لم تضع المواد الإباحية فيها ، فلن تحتاج إلى تجنبها لأن النظام لا يعرف ما هو ولا تحتاج إلى حاجز حماية.”