تكنولوجيا

مع اقتراب الانتخابات الأمريكية.. مايكروسوفت تطلق أداة لتمييز مقاطع “التزييف العميق” Deepfake

أضافت مايكروسوفت إلى مجموعتها المتنامية من التقنيات التي تستهدف الكشف عن الوسائط المصطنعة بتقنية “التزييف العميق” Deepfake، وذلك بإطلاق أداة لتحليل المقاطع والصور الثابتة ووضع تقييم لدرجة التلاعب بها.

تقدم الأداة التي سمتها مايكروسوفت Video Authenticator، التي تقدم لك “نسبة مئوية أو درجة ثقة” تُشير إلى ما إذا كانت تلك الوسائط قد تم التلاعب بها اصطناعياً.

وكتبت الشركة في منشور مدونة يعلن إطلاق الأداة: “في حالة مقاطع الفيديو، تقدم الأداة نسبة في الوقت الحقيقي تظهر مع كل إطار من المقطع. تعمل الأداة بتتبع حدود المزج في التزييف العميق، والخفوت الدقيق أو عناصر اللون الرمادي التي لا تراها العين المجردة”.

وإن شاهدت مقطعاً على شبكة الإنترنت يبدو حقيقياً لكن تشعر بأن هناك خطأً ما، فهناك احتمال أن يكون نتيجة تلاعب بتقنية متطورة تحاول تمرير المقطع على أنه حقيقي، ربما بقصد نشر معلومات مغلوطة.

وفي حين أن العديد من وسائط التزييف العميق تُصنع بقصد المرح والتسلية، فإن نزعها من سياقها يمكن أن يعطيها حياة مستقلة بذاتها مع انتشارها بين مستخدمي الإنترنت، لتخدع في نهاية المطاف المشاهدين.

وفي حين تُستعمل تكنولوجيا الذكاء الاصطناعي في توليد وسائط Deepfake تبدو حقيقية، فإن التعرف على هذه الأشكال البصرية من نشر المعلومات المغلوطة باستعمال التكنولوجيا يظل مشكلة عويصة، ويظل العقل الناقد هو أفضل وسيلة للكشف عن الهراء المصنوع بالتكنولوجيا الحديثة.

على كل حال، يستمر التقنيون في العمل على برامج الكشف عن مقاطع التزييف العميق، ومن بينها أداة مايكروسوفت الأخيرة.

لكن منشور المدونة يحذر من أن التكنولوجيا ستكون فائدتها قصيرة العمر في سباق التسلح المحموم في مجال نشر المعلومات المغلوطة باستعمال الذكاء الاصطناعي، “فحقيقة أن هذه الوسائط المزيفة ينتجها ذكاء اصطناعي يتعلم باستمرار تجعل من المحتم أن يتغلب ذلك الذكاء الاصطناعي على تكنولوجيا التتبع التقليدية. لكن على المدى القصير، بما يشمل الانتخابات الأمريكية المقبلة، فإن تكنولوجيا الرصد المتقدمة يمكن أن تكون أداة مفيدة لتساعد المستخدمين في تمييز مقاطع التزييف العميق”.

هذا الصيف أطلقت شركة فيسبوك مسابقة لتطوير أدوات لتتبع التزييف العميق قدمت نتائج أفضل من المتوقع، لكن فقط في حالة استعمالها على مجموعة بيانات لم يسبق للباحثين الولوج إليها.

في الوقت نفسه، تقول مايكروسوفت إن أداة Video Authenticator تم تطويرها باستعمال مجموعة بيانات عامة من Face Forensic++، واختبارها على مجموعة بيانات تحدي Deepfake Detection، وتُشير إلى أن النموذجين “رائدان في تدريب تقنيات رصد وسائط التزييف العميق واختبارها”.

عقدت مايكروسوفت شراكة مع مؤسسة AI Foundation في سان فرانسيسكو، لتتيح الأداة للمنظمات المشاركة في العملية الديمقراطية الأمريكية هذا العام، ومن بينها المواقع الإخبارية والحملات السياسية.

وتضيف مايكروسوفت: “ستتاح الأداة مبدئياً فقط من خلال مبادرة Reality Defender 2020، التي ستوضح للمنظمات العوائق والاعتبارات الأخلاقية المتأصلة في تكنولوجيا رصد التزييف العميق. ويمكن للحملات والصحفيين المهتمين بمعرفة المزيد التواصل مع RD2020 هنا“.

هذه الأداة طورها قسم الأبحاث والتطوير بالشركة، Microsoft Research، بالتعاون مع فريق Responsible AI وهيئة استشارية داخلية عن الذكاء الاصطناعي، ضمن برنامج أوسع تديره مايكروسوفت بهدف الدفاع عن الديمقراطية من مخاطر نشر المعلومات المغلوطة.

ويكمل منشور المدونة: “نتوقع أن وسائل إنتاج الوسائط المصطنعة ستتطور أكثر بمرور الزمن. وكما أن كل وسائل الرصد باستعمال الذكاء الاصطناعي لها معدلات فشل، فعلينا أن نفهم ذلك ونستعد للتعامل مع وسائط التزييف العميق التي تمر من أدوات الرصد دون اكتشافها. لذا، على المدى الطويل، علينا أن نتوصل إلى وسائل أقوى للحفاظ على مصداقية مقالات الأخبار والوسائط الأخرى والتأكد من صحتها. هناك عدد من الأدوات التي تساعد القراء في معرفة ما إذا كانت الأخبار التي يرونها تأتي من مصدر موثوق ولم يتم تعديلها”.

وأعلنت مايكروسوفت أيضاً عن نظامٍ سيمكن منتجي المحتوى من إضافة هاش وشهادات رقمية للوسائط تبقى في بياناتها الوصفية أثناء تنقلها على شبكة الإنترنت وتمثل مرجعاً لموثوقية هذه الوسائط.

أما المكون الثاني لذلك النظام فهو أداة قراءة يمكن إضافتها إلى المتصفح للتحقق من الشهادات ومطابقة الهاش لتقدم للقارئ، “بدرجة عالية من الدقة” وفقاً لمايكروسوفت، تقييماً لأصلية المحتوى وعدم التلاعب به.

وستقدم هذه الشهادات للقارئ أو المشاهد معلوماتٍ عن الجهة المنتجة لهذه الوسائط.

وتأمل مايكروسوفت في أن نظام الموثوقية عن طريق العلامات الرقمية سيلعب دوراً أساسياً في مبادرة الأخبار الموثوقة التي أعلنتها هيئة الإذاعة البريطانية BBC الممولة من الحكومة البريطانية، وبالأخص في مكون لتحقق من صحة الأخبار يُدعى Project Origin، بقيادة حالف من BBC البريطانية وCBC الكندية ومايكروسوفت وصحيفة نيويورك تايمز.

وتقول الشركة إن تكنولوجيا العلامات الرقمية سيختبرها Project Origin بهدف تطويرها إلى معيار يمكن تطبيقه على نطاق واسع.

وأضافت مايكروسوفت: “إن مبادرة الأخبار الموثوقة، التي تشمل طيفاً من جهات النشر وشركات التواصل الاجتماعي، وافقت أيضاً على اختبار هذه التقنية. وفي الأشهر القادمة، نأمل أن نوسع العمل في هذا المجال ليشمل شركات تقنية وجهات نشر إخبارية وشركات تواصل اجتماعي أكثر”.

ومع استمرار العمل على تقنيات لرصد وسائط التزييف العميق، يشدد المنشور على أهمية الثقافة الإعلامية، مُشيراً إلى شراكة مع جامعة واشنطن، وSensity وUSA Today، بهدف تعزيز الفكر الناقد في الفترة المؤدية إلى الانتخابات الأمريكية.

أطلقت هذه الشراكة اختباراً للمستخدم لتمييز المقطع المزيف، موجهاً للمصوتين في الانتخابات الأمريكية “ليتعلموا بشأن الوسائط المصطنعة، ويكتسبوا مهارات الثقافة الإعلامية الناقدة ويزيد وعيهم بأثر الوسائط المصطنعة على الديمقراطية”.

سيتم توزيع هذا الاختبار التفاعلي عبر مواقع الويب وصفحات التواصل الاجتماعي الخاصة بـUSA Today، ومايكروسوفت وجامعة واشنطن وعن طريق إعلانات مواقع التواصل الاجتماعي.

وأشارات شركة التكنولوجيا العملاقة إلى أنها ستدعم حملة خدمة عامة في الولايات المتحدة تشجع الناس على “التوقف للتفكر” وتفقد ما إذا كانت المعلومات مصدرها منظمة إخبارية سمعتها جيدة قبل مشاركة أو الترويج لهذه الأخبار على وسائل التواصل الاجتماعي في الفترة المؤدية إلى الانتخابات القادمة.

وأضاف المنشور: “حملتنا ستساعد الناس في فهم الضرر الذي يتسبب فيه نشر المعلومات المغلوطة والكاذبة على ديمقراطيتنا، وأهمية التأني من أجل تمييز المعلومات الموثوق بها ومشاركتها واستهلاكها. وستُذاع هذه الإعلانات عبر محطات الراديو في الولايات المتحدة في سبتمبر/أيلول وأكتوبر/تشرين الأول”.

– هذا الموضوع مترجم عن موقع TechCrunch.

المصدر

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى