سوشيال ميديا

يُطلق YouTube متطلبات معالجة الذكاء الاصطناعي الجديدة للتحميلات

يتطلع YouTube إلى توسيع نطاق إفصاحاته حول المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي، مع عنصر جديد داخل Creator Studio حيث سيتعين على منشئي المحتوى الكشف عندما يقومون بتحميل محتوى ذو مظهر واقعي تم إنشاؤه باستخدام أدوات الذكاء الاصطناعي.

تسميات يوتيوب AI

كما ترون في هذا المثال، سيُطلب الآن من منشئي المحتوى على YouTube تحديد المربع عندما يتم تغيير محتوى التحميل الخاص بهم أو اصطناعيًا ويبدو حقيقيًا، وذلك لتجنب التزييف العميق والمعلومات الخاطئة عبر الصور التي تم التلاعب بها أو محاكاتها.

عند تحديد المربع، سيتم عرض علامة جديدة على مقطع الفيديو الخاص بك، مما يتيح للمشاهد معرفة أن هذه ليست لقطات حقيقية.

تسميات يوتيوب AI

حسب يوتيوب:

تهدف العلامة الجديدة إلى تعزيز الشفافية مع المشاهدين وبناء الثقة بين منشئي المحتوى وجمهورهم. تتضمن بعض أمثلة المحتوى الذي يتطلب الكشف عنه استخدام صورة شخص واقعي, تغيير لقطات الأحداث أو الأماكن الحقيقية، وتوليد مشاهد واقعية.

يشير موقع YouTube أيضًا إلى أنه ليس كل استخدام للذكاء الاصطناعي يتطلب الكشف.

لا تشمل هذه القواعد الجديدة النصوص البرمجية وعناصر الإنتاج التي يتم إنشاؤها بواسطة الذكاء الاصطناعي، في حين أن “المحتوى غير الواقعي بشكل واضح” (أي الرسوم المتحركة)، وتعديلات الألوان، والمؤثرات الخاصة، ومرشحات التجميل ستكون أيضًا آمنة للاستخدام دون الكشف الجديد.

لكن المحتوى الذي قد يكون مضللاً سيحتاج إلى تصنيف. وإذا لم تقم بإضافة واحدة، فيمكن لموقع YouTube أيضًا إضافة واحدة لك، إذا اكتشف استخدام الوسائط الاصطناعية و/أو التي تم التلاعب بها في مقطعك.

إنها الخطوة التالية ليوتيوب في ضمان شفافية الذكاء الاصطناعي، حيث أعلنت المنصة بالفعل عن متطلبات جديدة حول الكشف عن استخدام الذكاء الاصطناعي في العام الماضي، مع تسميات من شأنها إعلام المستخدمين بهذا الاستخدام.

علامات الذكاء الاصطناعي على YouTube

يعد هذا التحديث الجديد هو المرحلة التالية في هذا التطوير، حيث يضيف المزيد من متطلبات الشفافية مع المحتوى المحاكي.

وهو أمر جيد. لقد رأينا بالفعل أن الصور التي تم إنشاؤها تسبب ارتباكًا، بينما كانت الحملات السياسية تستخدم صورًا تم التلاعب بها، على أمل التأثير على آراء الناخبين.

وبالتأكيد، سيتم استخدام الذكاء الاصطناعي بشكل متزايد.

والسؤال الوحيد إذن هو إلى متى سنكون قادرين بالفعل على اكتشافه؟

ويتم اختبار حلول مختلفة على هذه الجبهة، بما في ذلك العلامات المائية الرقمية للتأكد من أن المنصات تعرف متى تم استخدام الذكاء الاصطناعي. لكن هذا لن ينطبق، على سبيل المثال، على نسخة من نسخة، إذا قام المستخدم بإعادة تصوير محتوى الذكاء الاصطناعي على هاتفه، على سبيل المثال، إزالة أي عمليات فحص محتملة.

ستكون هناك طرق للتغلب على ذلك، ومع استمرار تحسن الذكاء الاصطناعي التوليدي، خاصة في توليد الفيديو، سيصبح من الصعب أكثر فأكثر معرفة ما هو حقيقي وما هو ليس كذلك.

تعتبر قواعد الإفصاح مثل هذه أمرًا بالغ الأهمية، لأنها تمنح المنصات وسيلة للتنفيذ. لكنها قد لا تكون فعالة لفترة طويلة.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى