تقارير

بايدن وهاريس يلتقيان بالرؤساء التنفيذيين حول مخاطر الذكاء الاصطناعي

واشنطن – التقت نائبة الرئيس كامالا هاريس يوم الخميس برؤساء جوجل ومايكروسوفت وشركتين أخريين تعملان على تطوير الذكاء الاصطناعي مع إطلاق إدارة بايدن مبادرات تهدف إلى ضمان أن التكنولوجيا سريعة التطور تعمل على تحسين الحياة دون تعريض حقوق الناس وسلامتهم للخطر.

استقطب الرئيس جو بايدن لفترة وجيزة الاجتماع في غرفة روزفلت بالبيت الأبيض ، قائلاً إنه يأمل في أن تتمكن المجموعة من “تثقيفنا” حول ما هو مطلوب لحماية المجتمع والنهوض به.

قال بايدن للمديرين التنفيذيين ، وفقًا لمقطع فيديو نُشر على حسابه على Twitter: “ما تفعله ينطوي على إمكانات هائلة وخطر هائل”.

قال مسؤولو البيت الأبيض يوم الخميس إن شعبية روبوت الدردشة بالذكاء الاصطناعي ChatGPT – حتى أن بايدن قد جربها – أثارت موجة من الاستثمار التجاري في أدوات الذكاء الاصطناعي التي يمكنها كتابة نص مقنع يشبه الإنسان وينتج صورًا وموسيقى ورموز كمبيوتر جديدة.

لكن السهولة التي يمكن بها تقليد البشر دفعت الحكومات في جميع أنحاء العالم إلى التفكير في كيفية الاستغناء عن الوظائف وخداع الناس ونشر المعلومات المضللة.

أعلنت الإدارة الديمقراطية عن استثمار 140 مليون دولار لإنشاء سبعة معاهد بحثية جديدة للذكاء الاصطناعي.

بالإضافة إلى ذلك ، من المتوقع أن يصدر مكتب الإدارة والميزانية بالبيت الأبيض إرشادات في الأشهر القليلة المقبلة حول كيفية استخدام الوكالات الفيدرالية لأدوات الذكاء الاصطناعي. هناك أيضًا التزام مستقل من قبل كبار مطوري الذكاء الاصطناعي للمشاركة في تقييم عام لأنظمتهم في أغسطس في مؤتمر القراصنة في لاس فيغاس DEF CON.

قال آدم كونر من مركز التقدم الأمريكي الليبرالي إن البيت الأبيض يحتاج أيضًا إلى اتخاذ إجراءات أقوى حيث يتم دمج أنظمة الذكاء الاصطناعي التي أنشأتها هذه الشركات في آلاف التطبيقات الاستهلاكية.

“نحن في الوقت الحالي الذي سنحدد فيه حقًا خلال الشهرين المقبلين ما إذا كنا نقود هذا أم لا أو نتنازل عن القيادة لأجزاء أخرى من العالم ، كما هو الحال في المساحات التنظيمية التقنية الأخرى مثل الخصوصية أو تنظيم المنصات الكبيرة عبر الإنترنت ، قال كونر.

تم تقديم الاجتماع كطريقة لهاريس والمسؤولين الإداريين لمناقشة المخاطر في التطوير الحالي للذكاء الاصطناعي مع الرئيس التنفيذي لشركة Google Sundar Pichai والرئيس التنفيذي لشركة Microsoft Satya Nadella ورؤساء شركتين ناشئتين مؤثرتين: Anthropic المدعومة من Google و OpenAI المدعومة من Microsoft ، الشركة المصنعة من ChatGPT.

وقالت هاريس في بيان بعد الاجتماع المغلق إنها أبلغت المديرين التنفيذيين أن “القطاع الخاص يتحمل مسؤولية أخلاقية ومعنوية وقانونية لضمان سلامة وأمن منتجاتهم”.

قاد ChatGPT موجة من أدوات “الذكاء الاصطناعي التوليدية” الجديدة التي تضيف إلى المخاوف الأخلاقية والمجتمعية حول الأنظمة الآلية المدربة على مجموعات ضخمة من البيانات.

كانت بعض الشركات ، بما في ذلك OpenAI ، سرية بشأن البيانات التي تم تدريب أنظمة الذكاء الاصطناعي الخاصة بها عليها. هذا يجعل من الصعب فهم سبب قيام روبوت المحادثة بإنتاج إجابات متحيزة أو خاطئة للطلبات أو معالجة المخاوف بشأن ما إذا كان يسرق أعمالًا محمية بحقوق الطبع والنشر.

قد لا يكون لدى الشركات التي تخشى أن تكون مسؤولة عن شيء ما في بيانات التدريب الخاصة بها حوافز لتتبعه بصرامة بطريقة قد تكون مفيدة “قالت مارجريت ميتشل ، كبيرة علماء الأخلاقيات في شركة Hugging Face الناشئة لمنظمة العفو الدولية: “فيما يتعلق ببعض المخاوف المتعلقة بالموافقة والخصوصية والترخيص”.

قالت: “من خلال ما أعرفه عن ثقافة التكنولوجيا ، هذا لم يحدث”.

دعا البعض إلى قوانين الإفصاح لإجبار مزودي الذكاء الاصطناعي على فتح أنظمتهم لمزيد من التدقيق من قبل طرف ثالث. ولكن مع بناء أنظمة الذكاء الاصطناعي فوق النماذج السابقة ، فلن يكون من السهل توفير شفافية أكبر بعد الحقيقة.

“سيكون الأمر متروكًا للحكومات لتقرر ما إذا كان هذا يعني أنه يتعين عليك التخلص من كل العمل الذي أنجزته أم لا ،” قال ميتشل. “بالطبع ، أتخيل نوعًا ما أنه في الولايات المتحدة على الأقل ، سوف تميل القرارات نحو الشركات وستكون داعمة لحقيقة أنه تم بالفعل. سيكون لها مثل هذه التداعيات الهائلة إذا كان على كل هذه الشركات أن تقوم بشكل أساسي بإهمال كل هذا العمل والبدء من جديد “.

بينما أشار البيت الأبيض يوم الخميس إلى نهج تعاوني مع الصناعة ، فإن الشركات التي تبني أو تستخدم الذكاء الاصطناعي تواجه أيضًا تدقيقًا شديدًا من الوكالات الأمريكية مثل لجنة التجارة الفيدرالية ، التي تفرض قوانين حماية المستهلك ومكافحة الاحتكار.

تواجه الشركات أيضًا قواعد أكثر صرامة في الاتحاد الأوروبي ، حيث يضع المفاوضون اللمسات الأخيرة على لوائح الذكاء الاصطناعي التي يمكن أن تجعل الكتلة المكونة من 27 دولة في طليعة الدفع العالمي لوضع معايير للتكنولوجيا.

عندما صاغ الاتحاد الأوروبي لأول مرة اقتراحه لقواعد الذكاء الاصطناعي في عام 2021 ، كان التركيز على كبح جماح التطبيقات عالية الخطورة التي تهدد سلامة الأشخاص أو حقوقهم مثل مسح الوجه المباشر أو أنظمة التسجيل الاجتماعي الحكومية ، والتي تحكم على الأشخاص بناءً على سلوكهم. بالكاد تم ذكر روبوتات المحادثة.

ولكن في انعكاس لمدى سرعة تطور تقنية الذكاء الاصطناعي ، كان المفاوضون في بروكسل يسعون جاهدين لتحديث مقترحاتهم لمراعاة أنظمة الذكاء الاصطناعي للأغراض العامة مثل تلك التي أنشأتها شركة OpenAI. ستتطلب البنود المضافة إلى مشروع القانون ما يسمى بنماذج مؤسسة AI للكشف عن مواد حقوق الطبع والنشر المستخدمة لتدريب الأنظمة ، وفقًا لمسودة جزئية حديثة للتشريع حصلت عليها وكالة Associated Press.

ومن المقرر أن تصوت لجنة برلمانية أوروبية الأسبوع المقبل على مشروع القانون ، لكن قد يستغرق الأمر سنوات قبل دخول قانون الذكاء الاصطناعي حيز التنفيذ.

في أماكن أخرى في أوروبا ، حظرت إيطاليا مؤقتًا ChatGPT بسبب انتهاك قواعد الخصوصية الأوروبية الصارمة ، وقالت هيئة مراقبة المنافسة البريطانية الخميس إنها تفتح مراجعة لسوق الذكاء الاصطناعي.

في الولايات المتحدة ، قد يكون وضع أنظمة الذكاء الاصطناعي للفحص العام في مؤتمر قرصنة DEF CON طريقة جديدة لاختبار المخاطر ، على الرغم من أنه ليس من المحتمل أن يكون شاملاً مثل التدقيق المطول ، كما قال هيذر فرايز ، الزميل الأول في مركز الأمن التابع لجامعة جورج تاون. التكنولوجيا الناشئة.

إلى جانب Google و Microsoft و OpenAI و Anthropic ، فإن الشركات التي يقول البيت الأبيض إنها وافقت على المشاركة تشمل Hugging Face و Nvidia لصناعة الرقائق و Stability AI ، والمعروفة بمولد الصور Stable Diffusion.

قال فرايز: “ستكون هذه وسيلة للأشخاص ذوي المهارات العالية والمبدعين للقيام بذلك في نوع واحد من الاندفاع الكبير”.

المصدر
abcnews

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى