يقود الخطأ البشري معظم الحوادث السيبرانية. هل يمكن للذكاء الاصطناعي المساعدة؟
على الرغم من أن المتسللين المتطورة والهجمات الإلكترونية التي تغذيها الذكاء الاصطناعي تميل إلى اختطاف العناوين الرئيسية ، إلا أن هناك أمرًا واحدًا واضحًا: يتمثل أكبر تهديد للأمن السيبراني في الخطأ البشري ، حيث يمثل أكثر من 80٪ من الحوادث. هذا على الرغم من الزيادة الهائلة في التدريب الإلكتروني التنظيمي خلال العقد الماضي ، وزيادة الوعي وتخفيف المخاطر عبر الشركات والصناعات. هل يمكن للذكاء الاصطناعي أن ينقذ؟ بمعنى ، هل يمكن أن يكون الذكاء الاصطناعي هو الأداة التي تساعد الشركات في السيطرة على الإهمال البشري؟ في هذه المقالة ، يغطي المؤلف إيجابيات وسلبيات الاعتماد على الذكاء الآلي للتخلص من السلوك البشري.
من المتوقع أن يصل تأثير الجريمة الإلكترونية إلى 10 تريليونات دولار هذا العام ، متجاوزًا الناتج المحلي الإجمالي لجميع دول العالم باستثناء الولايات المتحدة والصين. علاوة على ذلك ، من المتوقع أن يرتفع الرقم إلى ما يقرب من 24 تريليون دولار في السنوات الأربع المقبلة.
على الرغم من أن المتسللين المتطورة والهجمات الإلكترونية التي تغذيها الذكاء الاصطناعي تميل إلى اختطاف العناوين الرئيسية ، إلا أن هناك شيئًا واحدًا واضحًا: التهديد الأكبر هو الخطأ البشري ، حيث يمثل أكثر من 80٪ من الحوادث. هذا ، على الرغم من الزيادة الهائلة في التدريب الإلكتروني التنظيمي خلال العقد الماضي ، وزيادة الوعي وتخفيف المخاطر عبر الشركات والصناعات.
هل يمكن للذكاء الاصطناعي أن ينقذ؟ بمعنى ، هل يمكن أن يكون الذكاء الاصطناعي هو الأداة التي تساعد الشركات في السيطرة على الإهمال البشري؟ وإذا كان الأمر كذلك ، فما هي إيجابيات وسلبيات الاعتماد على الذكاء الآلي للتخلص من السلوك البشري؟
مما لا يثير الدهشة ، أن هناك حاليًا قدر كبير من الاهتمام بالأمن السيبراني المدفوع بالذكاء الاصطناعي ، مع تقديرات تشير إلى أن سوق أدوات الأمن السيبراني للذكاء الاصطناعي ستنمو من 4 مليارات دولار فقط في عام 2017 إلى ما يقرب من 35 مليار دولار صافي بحلول عام 2025. تتضمن هذه الأدوات عادةً الاستخدام التعلم الآلي والتعلم العميق ومعالجة اللغة الطبيعية لتقليل الأنشطة الضارة واكتشاف الانحرافات الإلكترونية أو الاحتيال أو الاقتحامات. تركز معظم هذه الأدوات على الكشف عن تغييرات الأنماط في النظم الإيكولوجية للبيانات ، مثل سحابة المؤسسة ، والنظام الأساسي ، وأصول مستودعات البيانات ، بمستوى من الحساسية والتفصيل الذي يفلت عادة من المراقبين البشريين.
على سبيل المثال ، يمكن لخوارزميات التعلم الآلي الخاضعة للإشراف تصنيف هجمات البريد الإلكتروني الخبيثة بدقة 98٪ ، وتحديد ميزات “شبيهة” استنادًا إلى التصنيف البشري أو الترميز ، بينما حقق التعرف على التعلم العميق لاقتحام الشبكة دقة تصل إلى 99.9٪. أما بالنسبة لمعالجة اللغة الطبيعية ، فقد أظهرت مستويات عالية من الموثوقية والدقة في اكتشاف نشاط التصيد والبرامج الضارة من خلال استخراج الكلمات الرئيسية في مجالات البريد الإلكتروني والرسائل حيث يفشل الحدس البشري عمومًا.
لكن كما لاحظ العلماء ، فإن الاعتماد على الذكاء الاصطناعي لحماية الشركات من الهجمات الإلكترونية هو “سيف ذو حدين”. وعلى وجه الخصوص ، تُظهر الأبحاث أن حقن 8٪ من بيانات التدريب “السامة” أو الخاطئة يمكن أن يقلل من دقة الذكاء الاصطناعي بنسبة هائلة تصل إلى 75٪ ، وهو ما لا يختلف عن كيفية إفساد المستخدمين لواجهات المستخدم التخاطبية أو النماذج اللغوية الكبيرة عن طريق حقن تفضيلات جنسية أو لغة عنصرية في بيانات التدريب. كما تقول ChatGPT غالبًا ، “كنموذج لغوي ، فأنا دقيقة فقط بقدر المعلومات التي أحصل عليها” ، مما يخلق لعبة قط وفأر دائمة حيث يجب على الذكاء الاصطناعي أن يتخلص من التعلم بالسرعة والتكرار كما يتعلم. في الواقع ، غالبًا ما تكون موثوقية ودقة الذكاء الاصطناعي في منع الهجمات السابقة مؤشراً ضعيفًا للهجمات المستقبلية.
علاوة على ذلك ، تميل الثقة في الذكاء الاصطناعي إلى أن يؤدي الأشخاص إلى تفويض المهام غير المرغوب فيها للذكاء الاصطناعي دون فهم أو إشراف ، خاصةً عندما لا يكون الذكاء الاصطناعي قابلاً للتفسير (والذي ، للمفارقة ، غالبًا ما يتعايش بأعلى مستوى من الدقة). زيادة-الثقة في الذكاء الاصطناعي موثقة جيدًا ، لا سيما عندما يكون الناس تحت ضغط الوقت ، وغالبًا ما تؤدي إلى تشتيت المسؤولية بين البشر ، مما يزيد من سلوكهم غير المبالي والمتهور. نتيجة لذلك ، بدلاً من تحسين التعاون الذي تشتد الحاجة إليه بين الذكاء البشري والآلة ، فإن النتيجة غير المقصودة هي أن هذا الأخير ينتهي به الأمر إلى إضعاف الأول.
كما أجادل في كتابي الأخير ، أنا ، الإنسان: الذكاء الاصطناعي والأتمتة والسعي لاستعادة ما يميزناو يبدو أن هناك اتجاهًا عامًا حيث يتم الترحيب بالتقدم في الذكاء الاصطناعي كذريعة للركود الفكري الخاص بنا. الأمن السيبراني ليس استثناءً ، بمعنى أننا سعداء بالترحيب بالتقدم التكنولوجي لحمايتنا من سلوكنا المتهور أو المتهور ، وأن نكون “خارج الخطاف” ، حيث يمكننا نقل اللوم من خطأ بشري إلى خطأ في الذكاء الاصطناعي. من المؤكد أن هذه ليست نتيجة سعيدة للشركات ، لذا فإن الحاجة إلى تثقيف وتنبيه وتدريب وإدارة السلوك البشري تظل مهمة كما كانت دائمًا ، إن لم تكن أكثر من ذلك.
الأهم من ذلك ، يجب على المنظمات أن تواصل جهودها لزيادة وعي الموظف بالمشهد المتغير باستمرار للمخاطر ، والذي سيزداد فقط في التعقيد وعدم اليقين بسبب تزايد اعتماد الذكاء الاصطناعي واختراقه ، سواء في الهجوم أو الدفاع. في حين أنه قد لا يكون من الممكن أبدًا القضاء على المخاطر تمامًا أو القضاء على التهديدات ، فإن الجانب الأكثر أهمية للثقة ليس ما إذا كنا نثق في الذكاء الاصطناعي أو البشر ، ولكن ما إذا كنا نثق في شركة أو علامة تجارية أو منصة على أخرى. هذا لا يستدعي وجود ملف إما او الاختيار بين الاعتماد على الذكاء البشري أو الاصطناعي للحفاظ على الشركات في مأمن من الهجمات ، ولكن لثقافة تمكن من الاستفادة من كل من الابتكارات التكنولوجية والخبرة البشرية على أمل أن تكون أقل عرضة للخطر من الآخرين.
في النهاية ، هذه مسألة قيادة: ليس فقط امتلاك الخبرة الفنية أو الكفاءة المناسبة ، ولكن أيضًا ملف تعريف السلامة المناسب في الجزء العلوي من المؤسسة ، وخاصة في مجالس الإدارة. كما أوضحت الدراسات لعقود من الزمن ، فإن المنظمات التي يقودها قادة يتسمون بالضمير والوعي بالمخاطر والأخلاق هم أكثر عرضة بشكل كبير لتوفير ثقافة السلامة والمناخ لموظفيهم ، حيث ستظل المخاطر ممكنة ، ولكن أقل احتمالًا. من المؤكد أنه من المتوقع أن تستفيد هذه الشركات من الذكاء الاصطناعي للحفاظ على أمان مؤسساتها ، ولكن قدرتها أيضًا على تثقيف العمال وتحسينها عادات الإنسان ستجعلهم أقل عرضة للهجمات والإهمال. كما لاحظ صامويل جونسون بحق ، قبل وقت طويل من أن يصبح الأمن السيبراني مصدر قلق ، “سلاسل العادات ضعيفة جدًا بحيث لا يمكن الشعور بها حتى تصبح أقوى من أن يتم كسرها”.