تقارير

9 طرق لتجنب الوقوع فريسة لغسيل الذكاء الاصطناعي

يتعرض مدراء تقنية المعلومات لضغوط متزايدة لاستدعاء مزاعم الذكاء الاصطناعي المضللة من البائعين. تقدم الاستراتيجيات المختلفة أفضل خط دفاع.

في الأشهر الأخيرة ، كان الذكاء الاصطناعي هو الكلمة الطنانة المفضلة لدى الجميع. ترى كل من شركات Silicon Valley الناشئة وشركات Fortune 500 أن الصناعات تحدث ثورة مع تسارع وتيرة الذكاء الاصطناعي بشكل مطرد. لكن الإثارة والتقدم والأعلام الحمراء مثل الغسيل بالذكاء الاصطناعي تتطور بنفس القدر. تريد بعض الشركات ، التي تسعى بشدة للحصول على قطار المرق ، جني الأموال من الضجيج ، لذا فهي تبالغ في تقدير قدراتها في مجال الذكاء الاصطناعي على الرغم من حقيقة أن الذكاء الاصطناعي الذي تستخدمه في الواقع ضئيل للغاية أو غير موجود.

يمكن أن تساعدهم استراتيجية التسويق المشكوك فيها هذه في الحصول على جولات تمويل أولية أكبر ، و A ، و B مقارنة بالشركات الناشئة التي لا تعتمد على الذكاء الاصطناعي. في العام الماضي وحده ، جمعت الشركات الناشئة في مجال الذكاء الاصطناعي أكثر من 50 مليار دولار من تمويل رأس المال الاستثماري ، وفقًا لـ GlobalData ، ومن المتوقع أن تنمو الأرقام هذا العام نظرًا للجنون المحيط بـ ChatGPT وغيرها.

بالنظر إلى رأس المال الذي يتم ضخه في هذه الشركات الناشئة ، فإن ظاهرة الغسيل بالذكاء الاصطناعي ستزداد حدة. تدرك لجنة التجارة الفيدرالية الأمريكية تمامًا الخطر ، وتحذر البائعين من التحلي بالشفافية والصدق عند الإعلان عن قدرات الذكاء الاصطناعي الخاصة بهم.

كتب المحامي مايكل أتليسون ، قسم ممارسات الإعلان في FTC ، في منشور على مدونة: “قد لا تعمل بعض المنتجات التي تحتوي على ادعاءات تتعلق بالذكاء الاصطناعي كما هو معلن عنه في المقام الأول”. “في بعض الحالات ، قد يكون هناك نقص في الفعالية بغض النظر عن الضرر الآخر الذي قد تسببه المنتجات. يجب أن يعرف المسوقون أنه – لأغراض إنفاذ لجنة التجارة الفيدرالية – فإن الادعاءات الكاذبة أو التي لا أساس لها حول فعالية المنتج هي الخبز والزبدة. “

في هذا المشهد المعقد ، قد يكون من الصعب التمييز بين حلول الذكاء الاصطناعي المشروعة وحيل التسويق.

يقول بينا اماناث ، المدير التنفيذي لمعهد ديلويت العالمي للذكاء الاصطناعي: “تحتاج الشركات إلى تطبيق جرعة صحية من الشك عند مواجهة ادعاءات البائعين بشأن منتجات الذكاء الاصطناعي الخاصة بهم”. “كما هو الحال مع أي شيء ، إذا كان يبدو جيدًا لدرجة يصعب تصديقها ، فمن المحتمل جدًا أن يكون كذلك.”

إذا لم يجد مدراء تقنية المعلومات وشركاتهم الإجابات الصحيحة ، فقد يواجهون عواقب تشمل المشاريع الفاشلة أو المتأخرة ، والخسائر المالية ، والقضايا القانونية ، ومخاطر السمعة ، وفي النهاية ، الطرد ، كما يقول دونالد ويلش ، رئيس قسم المعلومات في جامعة نيويورك. “لقد رأيت مدراء تنفيذيين يُطردون ، ولا يمكنني القول إنه كان قرارًا خاطئًا”.

لحسن الحظ ، هناك العديد من الاستراتيجيات التي يمكنهم استخدامها لتجنب الأخطاء.

تحتاج الشركات التي تعمل بالذكاء الاصطناعي إلى موظفين مهرة

يمكن أن يكون فحص الشركات التي تدعي استخدام الذكاء الاصطناعي عملية طويلة وتستغرق وقتًا طويلاً. ومع ذلك ، فإن الأشياء البسيطة ، مثل إجراء بحث على LinkedIn ، يمكن أن تكشف عن رؤى قيمة في ملف تعريف المؤسسة.

يقول عماناث: “افحص مستوى خبرة الذكاء الاصطناعي والتعليم الذي يتمتع به موظفو البائعين”. “يجب أن تمتلك الشركات التي تطور حلول الذكاء الاصطناعي الموهبة للقيام بذلك ، مما يعني أن لديها علماء بيانات ومهندسي بيانات لديهم خبرة عميقة في الذكاء الاصطناعي ، والتعلم الآلي ، وتطوير الخوارزميات ، والمزيد.”

بالإضافة إلى فحص الموظفين ، يمكن لمدراء تقنية المعلومات أيضًا البحث عن أدلة على التعاون مع خبراء الذكاء الاصطناعي ومؤسسات البحث الخارجية. تشمل هذه الفئة الشراكات مع الجامعات والمشاركة في المؤتمرات والفعاليات الصناعية والمساهمات في مبادرات الذكاء الاصطناعي مفتوحة المصدر.

إنها أيضًا علامة جيدة إذا كان هذا البائع لديه خبرة في مشاريع أو تطبيقات مماثلة لأنه يوضح أنه يمكن أن يقدم نتائج جيدة.

يقول فيرا تكاتشينكو ، كبير مسؤولي التكنولوجيا والابتكار في شركة MacPaw الأوكرانية الأمريكية الناشئة: “تحقق بعناية من تاريخ المورد”. “إذا كانت الشركة خبيرة في مجال الذكاء الاصطناعي ، فمن المرجح أن يكون لها تاريخ من الأوراق البحثية في هذا المجال أو غيرها من منتجات الذكاء الاصطناعي.”

ابحث عن إستراتيجية بيانات جيدة الصياغة

تحتاج الشركات التي تدمج الذكاء الاصطناعي في منتجاتها أيضًا إلى استراتيجية بيانات مدروسة جيدًا لأن خوارزميات الذكاء الاصطناعي بحاجة إليها. إنهم بحاجة إلى العمل باستخدام بيانات عالية الجودة ، وكلما كانت البيانات سخية وذات صلة ، كانت النتائج أفضل.

يقول عماناث: “يتم تغذية أنظمة الذكاء الاصطناعي بكميات كبيرة جدًا من البيانات ، لذلك يجب أن يكون لدى هذه الشركات أيضًا إستراتيجية بيانات جيدة الإنشاء وأن تكون قادرة على شرح مقدار البيانات التي يتم جمعها ومن أي مصادر”.

هناك شيء آخر يجب النظر إليه وهو ما إذا كانت هذه الشركات قد بذلت جهدًا كافيًا للامتثال للمتطلبات التنظيمية ، والحفاظ على معايير عالية لخصوصية البيانات وأمانها. مع ظهور لوائح خصوصية البيانات مثل اللائحة العامة لحماية البيانات (EU GDPR) وقانون خصوصية المستهلك في كاليفورنيا (CCPA) ، يتعين على المؤسسات أن تكون شفافة بشأن ممارسات البيانات الخاصة بها وتزويد الأفراد بالسيطرة على بياناتهم الشخصية. إذا لم يحدث هذا ، يجب أن تكون علامة حمراء.

طلب أدلة لدعم المطالبات

في حين أن الكلمات الطنانة يمكن أن تكون مغرية ، إلا أنها تساعد في طلب الأدلة بلطف. يقول عماناث: “إن طرح الأسئلة الصحيحة والمطالبة بإثبات ادعاءات المنتج أمر بالغ الأهمية لإزالة الحديث عن التسويق والمبيعات لتحديد ما إذا كان المنتج مدعومًا بالفعل بواسطة الذكاء الاصطناعي”.

يمكن لمديري تقنية المعلومات الذين يقيِّمون منتجًا أو خدمة معينة يبدو أنها مدعومة بالذكاء الاصطناعي أن يسألوا كيف تم تدريب النموذج ، وما هي الخوارزميات المستخدمة ، وكيف سيتكيف نظام الذكاء الاصطناعي مع البيانات الجديدة.

يقول تكاتشينكو: “يجب أن تسأل البائع عن المكتبات أو نماذج الذكاء الاصطناعي التي يستخدمها”. “قد يكون لديهم كل شيء مبني على استدعاء OpenAI API بسيط.”

يوافق ماتياس روزر ، الشريك والرائد العالمي للتكنولوجيا في شركة الاستشارات الإدارية والتكنولوجية BearingPoint. ويضيف أن المكونات وإطار العمل يجب أن تكون مفهومة تمامًا ، ويجب أن يشمل التقييم “الأخلاق ، والتحيزات ، والجدوى ، والملكية الفكرية ، والاستدامة”.

يمكن أن يساعد هذا الاستفسار مدراء تقنية المعلومات في معرفة المزيد حول الإمكانات الحقيقية والقيود المفروضة على هذا المنتج ، وبالتالي مساعدتهم على تحديد ما إذا كانوا يريدون شرائه أم لا.

انتبه إلى الشركات الناشئة

الشركات الناشئة تضع نفسها في طليعة الابتكار. ومع ذلك ، بينما يدفع الكثير منهم حدود ما هو ممكن في مجال الذكاء الاصطناعي ، قد يبالغ البعض ببساطة في قدراتهم لجذب الانتباه والمال.

يقول فلاد برانسكييوس ، المؤسس المشارك والمدير التنفيذي للتكنولوجيا في شركة Claid.ai الأوكرانية الأمريكية الناشئة من Let’s Enhance: “بصفتي مديرًا للتكنولوجيا في شركة للتعلم الآلي ، غالبًا ما أواجه حالات غسل بالذكاء الاصطناعي ، لا سيما في مجتمع الشركات الناشئة”. ومع ذلك ، فقد لاحظ أن الوضع أصبح مؤخرًا أكثر حدة ، مضيفًا أن هذه الظاهرة خطيرة بشكل خاص خلال دورات الضجيج مثل تلك التي نشهدها حاليًا ، حيث يُنظر إلى الذكاء الاصطناعي على أنه اندفاع جديد للذهب.

يعتقد Pranskevičius ، على الرغم من ذلك ، أن غسل الذكاء الاصطناعي سيظل قيد الفحص في المستقبل القريب حيث تصبح اللوائح المتعلقة بالذكاء الاصطناعي أكثر صرامة.

بناء سمعة مهنية تقنية

ليس من غير المألوف أن تحصل الشركة على حلول ذكاء اصطناعي مشكوك فيها ، وفي مثل هذه الحالات ، قد لا يكون بالضرورة رئيس قسم المعلومات على خطأ. يقول ويلش: يمكن أن يكون ذلك “أحد أعراض ضعف قيادة الشركة”. “يقع النشاط التجاري في إطار الضجيج التسويقي ويبطل فريق تكنولوجيا المعلومات ، والذي يُترك لالتقاط القطع.”

لمنع مثل هذه اللحظات ، تحتاج المؤسسات إلى تعزيز ثقافة تعاونية يتم فيها تقييم رأي المتخصصين في التكنولوجيا ويتم سرد حججهم بدقة.

في الوقت نفسه ، يجب على مدراء المعلومات والفرق التقنية بناء سمعتهم داخل الشركة حتى يتم دمج رأيهم بسهولة أكبر في عمليات صنع القرار. لتحقيق ذلك ، يجب أن يظهروا الخبرة والاحتراف والمهارات الشخصية.

يقول ماكس كوفتون ، كبير مسؤولي الابتكار في Sigma Software Group: “لا أشعر أن هناك مشكلة في اكتشاف غسل الذكاء الاصطناعي لمدير المعلومات”. قد تكون المشكلة الأكبر هي الدفع من جانب أصحاب المصلحة التجاريين أو رواد الأعمال لاستخدام الذكاء الاصطناعي بأي شكل لأنهم يريدون أن يبدوا مبتكرين ومتقدمين. لذا فإن السؤال الصحيح هو كيف لا تصبح عامل غسيل للذكاء الاصطناعي تحت ضغط ريادة الأعمال “.

تجاوز الكلمات الطنانة

عند مقارنة المنتجات والخدمات ، من الضروري تقييمها بعقل متفتح ، والنظر في سماتها بدقة.

يقول تكاتشينكو: “إذا كانت الميزة الوحيدة التي يتمتع بها منتج أو خدمة بالنسبة لك هي الذكاء الاصطناعي ، فيجب أن تفكر مليًا قبل الاشتراك”. “من الأفضل دراسة عرض القيمة والميزات الخاصة به وبدء التعاون فقط عندما تفهم فوائد البرنامج بخلاف الذكاء الاصطناعي.”

يوافق ولش: “هل سأشتري نظامًا لأنهم كتبوه بلغة C أو C ++ أو Java؟” سأل. “قد أرغب في فهم ذلك كجزء من العناية الواجبة الخاصة بي بشأن ما إذا كانوا سيكونون قادرين على الحفاظ على الكود ، وصلاحية الشركة ، وأشياء من هذا القبيل.”

قد يساعد إجراء تقييم شامل المؤسسات على تحديد ما إذا كان المنتج أو الخدمة التي يخططون لشرائها يتوافق مع أهدافهم ولديهم القدرة على توفير النتائج المتوقعة.

يقول كوفتون: “كلما كانت التكنولوجيا أكثر تعقيدًا ، كان من الصعب على غير المتخصصين فهمها إلى الحد الذي يتيح لك التحقق من أن تطبيق تلك التكنولوجيا صحيح ومنطقي”. “إذا قررت استخدام تقنية الذكاء الاصطناعي لشركتك ، فمن الأفضل أن تشترك مع المتخصصين المطلعين ذوي الخبرة في مجال الذكاء الاصطناعي. وإلا ، فقد لا تؤدي جهودك إلى الفوائد التي تتوقع الحصول عليها “.

يمكن أن يساعد التحديث المستمر للمنتجات المتعلقة بالذكاء الاصطناعي والقضايا المحيطة بها مدراء تقنية المعلومات على اتخاذ قرارات مستنيرة أيضًا. بهذه الطريقة ، يمكنهم تحديد الأخطاء المحتملة التي يمكن أن يرتكبوها ، وفي نفس الوقت ، الاستفادة من الأفكار والتقنيات الجديدة.

يقول آرت طومسون ، رئيس قسم المعلومات في مدينة ديترويت: “لا أعتقد أن هناك تعليمًا كافيًا حتى الآن”.

ويوصي مديري المعلومات بإجراء أبحاث كافية لتجنب الوقوع في فخ التكنولوجيا الجديدة أو التجريبية التي تعد بأكثر مما يمكنها تقديمه. إذا حدث ذلك ، فإن “مقدار الوقت لإعادة تقديم العطاءات والفرز لاستبدال منتج ما يمكن أن يضر حقًا بالموظفين من القدرة على الوقوف وراء أي تغيير” ، كما يقول. “ناهيك عن الصعوبة التي يواجهها الأشخاص في استثمار الوقت لتعلم التقنيات الجديدة.”

بالإضافة إلى ذلك ، يمكن أن يساعد الاطلاع على أحدث الأمور المتعلقة بالذكاء الاصطناعي مدراء تقنية المعلومات على توقع التغييرات التنظيمية ومعايير الصناعة الناشئة ، والتي يمكن أن تساعدهم على الامتثال والحفاظ على ميزة تنافسية.

وهو أكثر من مجرد رئيس قسم المعلومات الذي يحتاج إلى البقاء على اطلاع دائم. يقول Roeser من BearingPoint: “قم بتثقيف فريقك أو تعيين خبراء لإضافة القدرات ذات الصلة إلى محفظتك”.

إجراءات تنظيمية إضافية حول الذكاء الاصطناعي

اللوائح الجديدة في الطريق يمكن أن تبسط مهمة مدراء تقنية المعلومات الذين يسعون لتحديد ما إذا كان المنتج أو الخدمة تستخدم تقنية ذكاء اصطناعي حقيقية أم لا. أصدر البيت الأبيض مؤخرًا قانون حقوق الذكاء الاصطناعي مع إرشادات لتصميم أنظمة الذكاء الاصطناعي بطريقة مسؤولة. وقد يتم إصدار المزيد من اللوائح في السنوات القادمة.

يقول عمّانات: “الفرضية الكامنة وراء هذه الإجراءات هي حماية حقوق المستهلك والبشر من الضرر المحتمل من التكنولوجيا”. “نحن بحاجة إلى توقع الآثار السلبية المحتملة للتكنولوجيا من أجل التخفيف من المخاطر.”

لا ينبغي أن تكون الأخلاق فكرة متأخرة

تميل الشركات إلى التأثير على الخطاب حول التكنولوجيا الجديدة ، وتسليط الضوء على الفوائد المحتملة مع التقليل في كثير من الأحيان من العواقب السلبية المحتملة.

يقول فيليب دي سالفو ، باحث ما بعد الدكتوراه في جامعة سانت غالن في سويسرا: “عندما تصبح التكنولوجيا كلمة طنانة ، فإننا نميل إلى فقدان التركيز على الآثار الضارة المحتملة التي يمكن أن تحدثها في المجتمع”. “تظهر الأبحاث أن الشركات تقود الخطاب حول الذكاء الاصطناعي ، وأن الحجج التقنية الحتمية لا تزال سائدة.”

هذا الاعتقاد بأن التكنولوجيا هي القوة الدافعة الرئيسية وراء التغيير الاجتماعي والثقافي يمكن أن يحجب المناقشات حول الآثار الأخلاقية والسياسية لصالح المزيد من الحجج الموجهة نحو التسويق. على حد تعبير دي سالفو ، فإن هذا يخلق “شكلاً من أشكال الضباب الجدلي الذي يجعل هذه التقنيات ومنتجيها أكثر غموضًا وغير خاضعين للمساءلة”.

لمعالجة هذا الأمر ، يقول إن هناك تحديًا حاسمًا لإبلاغ الجمهور بما لا يمثله الذكاء الاصطناعي في الواقع وما لا يمكنه فعله.

يقول دي سالفو: “معظم تطبيقات الذكاء الاصطناعي التي نراها اليوم – بما في ذلك ChatGPT – مبنية أساسًا حول تطبيق الإحصاءات وتحليل البيانات على نطاق واسع”. “قد يبدو هذا تعريفًا مملًا ، لكنه يساعد على تجنب أي تحريف لما هو intelli يشير “gent” إلى تعريف “الذكاء الاصطناعي”. نحن بحاجة إلى التركيز على المشكلات الحقيقية مثل التحيزات ، والفرز الاجتماعي ، وغيرها من القضايا ، وليس السيناريوهات الافتراضية والتخمينية طويلة المدى “.

المصدر
cio

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى