تكنولوجيا

ثلاث طرق لبناء الثقة في التكنولوجيا

في كل مرة تستخدم فيها هاتفك ، يتم إنشاء بيانات جديدة. إنه نفس الشيء عندما تنظر إلى إشعار جديد على ساعتك الذكية ، عندما تسافر إلى العمل أو عندما تطلب بعض المعلومات من Siri أو Alexa – هذه كلها تقنيات جديدة. الآلاف من أفعالك تولد آلاف البيانات كل يوم ، ثم تضاعف ذلك في عدد المستخدمين الذين لديهم أي نوع من التفاعل مع الأدوات الرقمية.

بينما يتم إنشاء المزيد من البيانات كل يوم وأصبحت التقنيات الجديدة متضمنة بشكل أعمق في حياتنا ، لا يزال هناك غالبًا نقص في الشفافية حول ماهية المعلومات التي يتم جمعها ، وما الذي يتم استخدامه من أجله ، وكيف يمكنك الوصول إليها.
عندما لا تكون هناك شفافية ، فإن الثقة في التقنيات لا تنمو بالسرعة التي نرغب بها ، كما تساهم عناوين الأخبار المبهمة حول إساءة استخدام البيانات والأخبار المزيفة وروبوتات البريد العشوائي وما شابه في ذلك.

إذا لم تتوصل الشركات إلى حل أفضل لهذه المواقف ، فلن يرغب الأشخاص في الاستمرار في اعتماد تقنيات جديدة. سيؤدي ذلك إلى إبطاء الابتكار والحد من الفوائد الهائلة التي نحصل عليها جميعًا من الاقتصاد الرقمي.
يعد إنشاء اقتصاد رقمي أكثر أمانًا وذكاءً وشمولية هدفًا واقعيًا نسعى لتحقيقه كمجتمع عالمي ، ونقدم لك ثلاث طرق للمساهمة فيه.

خصوصية أكبر للبيانات وحماية البيانات

يستخدم ملايين الآباء حول العالم التطبيقات لمراقبة تحركات أطفالهم أو سلوكهم على الإنترنت. بصفتك أحد الوالدين ، تتوقع أن تلتزم هذه التطبيقات بدقة بمبادئ خصوصية البيانات. ثم عندما يحدث أن يبيع أحد هذه التطبيقات بيانات حول مواقع المستخدمين ، كما كان الحال في عام 2021 ، سيستجيب المستخدمون فورًا عن طريق الحد من استخدامه ، ولكن الضرر الأكبر هو الضرر طويل المدى في الواقع ، وهو فقدان ثقة الجمهور. .

هذا مجرد مثال واحد من صناعة تسييل البيانات التي تبلغ قيمتها مليار دولار. لا ينبغي أن يكون الالتزام المستمر بمشاركة بياناتك الشخصية هو الثمن الخفي الذي ندفعه جميعًا للمشاركة في العالم الرقمي. نماذج الموافقة الطويلة ، المكتوبة بخط رفيع لن يقرأها أحد ، هي جزء من المشكلة. يمكن تحسين الوضع من خلال الشركات التي تركز على المبدأ الأساسي القائل بأن بيانات أي فرد تخصه حصريًا ويجب أن تكون مفيدة له. نعم ، الأمور بهذه البساطة.

لامست يد امراة التكنولوجيا

تسلط اللائحة العامة لحماية البيانات (GDPR) للاتحاد الأوروبي الضوء على ذلك ، حيث تطلب من الشركات تصميم منتجاتها لتنفيذ مبادئ حماية قوية للخصوصية ، فضلاً عن التواصل بشكل أوضح حول كيفية معالجة بيانات المستخدم ، فضلاً عن منحهم الفرصة للقيام بذلك. الوصول إلى بياناتهم وإدارتها وأخيراً حذفها إذا رغبوا في ذلك.
العديد من هذه المبادئ لم يتم تبنيها من قبل الشركات في جميع أنحاء العالم. مستخدموهم سوف يشكرونهم

نظام بيئي تشفير أكثر أمانًا

لا يمكنك التحدث عن الثقة في التكنولوجيا دون التحدث عن الثقة في التشفير. قبل انفجار FTX الداخلي ، كان العديد من الأشخاص والمؤسسات المالية متشككين بالفعل بشأن أمان العملات المشفرة. الآن تخضع صناعة العملات المشفرة بأكملها لمزيد من التدقيق.
تعتقد Mastercard ، مثل كثيرين آخرين ، أن تقنية blockchain لديها إمكانات كبيرة عندما يتعلق الأمر ببناء أدوات مالية وأنظمة دفع أكثر كفاءة. لكن لا شيء من ذلك ممكن بدون الثقة.

وسيساهم وجود تنظيم أكثر اتساقًا بشكل كبير في بناء تلك الثقة. بالإضافة إلى ذلك ، من الضروري العمل على إقامة شراكات وثيقة في مجال العملات المشفرة والتمويل التقليدي. تتمتع المؤسسات المالية وشركات الخدمات المالية القائمة بالكفاءة في إدارة المخاطر وأنظمة مكافحة غسيل الأموال وبروتوكولات حوكمة الشركات. ستوفر مشاركة هذه المعرفة مع اللاعبين الشباب في مجال التشفير المعايير والضوابط التي تشتد الحاجة إليها والتي ، من ناحية أخرى ، يمكن أن توفر مرونة في تنفيذ المشروع وتركيزًا قويًا على الابتكار المستمر.

القضاء على الأحكام المسبقة الموجودة بشأن الذكاء الاصطناعي

في عام 2016 ، وجدت ProPublica أن الخوارزمية المستخدمة من قبل القضاة وضباط الإفراج المشروط الأمريكيين كانت أكثر عرضة بمقدار الضعف لتصنيف المدعى عليهم السود على أنها عالية المخاطر لارتكاب جرائم أكثر من المتهمين البيض. أعرب مجلس اللوردات في المملكة المتحدة ولجنة الأمم المتحدة للقضاء على التمييز العنصري عن مخاوف مماثلة بشأن الذكاء الاصطناعي في العمل الشرطي.

هناك العديد من التحيزات الخفية التي تتخلل أنظمة الذكاء الاصطناعي والتي يمكن أن تسبب ضررًا حقيقيًا لحريات الإنسان وسبل عيشه. تزعم العديد من الدراسات أن الذكاء الاصطناعي يمكن أن يؤثر سلبًا على عدم المساواة الاجتماعية بين الأشخاص عند التقدم للحصول على قرض أو وظيفة ، أو حتى عند زيارتهم للطبيب.

الذكاء الاصطناعي

لا يتعين على قادة الأعمال فقط انتظار اللوائح الجديدة قبل اتخاذ الإجراءات – فهناك الكثير الذي يمكننا القيام به اليوم. يجب أن نكون بلا هوادة في جهودنا للقضاء على أي تحيزات موجودة في الذكاء الاصطناعي ، قبل أن يدخل المجال في استخدام جماعي جاد. الطريقة الوحيدة للقيام بذلك هي من خلال البحث والاختبار ، فضلاً عن قدر أكبر من الشفافية والمساءلة. تتخذ العديد من الشركات هذه الخطوات ، ويمكن عمل المزيد من خلال العمل معًا.
عندما تطبق أنظمة الذكاء الاصطناعي نفس المبادئ على جميع التفاعلات ، فإنها تقوي الثقة.

تُبنى الثقة من خلال تقديم الوعود والوفاء بها مرارًا وتكرارًا.
يمكن لعالم الأعمال أن يعزز الثقة في التقنيات من خلال التركيز على ذلك فقط. ضمان استخدام البيانات التي يتم إنشاؤها حول المستخدمين أولاً وقبل كل شيء لمصلحتهم ، مع مراعاة خصوصيتهم وأمانهم.

إنشاء ممارسات تعتمد على البيانات يمكن للأشخاص فهمها بسهولة وسيتبعها المزيد والمزيد من الشركات. إدخال المعايير في مجال التشفير. القضاء على التحيزات الموجودة في الذكاء الاصطناعي.
كمستخدمين للتكنولوجيا وكقادة ، نحن مدينون لأنفسنا وعملائنا باتخاذ الخطوات اللازمة.

المصدر
benchmark

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى