تحسين فعالية كشف المعلومات الزائفة باستخدام الحجج الرمزية - MBZUAI MBZUAI

تحسين فعالية كشف المعلومات الزائفة باستخدام الحجج الرمزية

الاثنين، 17 نوفمبر 2025

كما هو حال أي تقنية قوية، قد تُستخدم النماذج اللغوية الكبيرة في خدمة الصالح العام أو إلحاق الضرر، وعلى الرغم من أن هذه الأنظمة تحمل إمكانات تحقق منفعةً للمجتمع، إلا أنه من الضروري أن يُدرك الناس المخاطر التي قد تُولدها، كما يقول تشونغ تيان، طالب الدكتوراه في تعلم الآلة بجامعة محمد بن زايد للذكاء الاصطناعي. إحدى المخاطر الرئيسية هي استغلال هذه النماذج لإنتاج أخبار مزيفة متقنة على نطاق واسع.

يعتبر كشف الأخبار الزائفة مجالاً بحثياً نشطاً، حيث طوّر الباحثون مجموعة من الأساليب المتعددة لتحديدها غير أن هذه المهمة تظل بالغة الصعوبة، لأن طبيعة الأخبار الزائفة تجعل منها هدفاً متغيّراً ومستمراً في التطور.

غالباً ما ترتبط الأخبار الزائفة بأحداث جارية، أو في بعض الحالات، بأحداث تحدث في الوقت الفعلي. ويشير تيان إلى أن أنظمة الكشف المدرَّبة على بيانات من أحداث سابقة قد لا تكون فعّالة في مواجهة أخبار زائفة تتعلق بأحداث مستقبلية.

تواصل الأدوات التي يستخدمها الأفراد لإنتاج الأخبار الزائفة تطورها، بالإضافة إلى أنهم يُبتكرون باستمرار استراتيجيات جديدة لتفادي اكتشافها. أضف إلى ذلك أن الناس أنفسهم يتغيّرون؛ فمعرفة الجمهور وإدراكه للأحداث تختلف من يوم إلى آخر. وقال تيان: “تُصاغ سرديات جديدة باستمرار لاستغلال المزاج الاجتماعي السائد، ولا يمكن لمنهج ثابت ومُعزول في كشف الأخبار الزائفة أن يواكب هذه الديناميكيات المتداخلة”.

لمواجهة لتلك الصعوبات، طوّر تيان وباحثون من جامعة محمد بن زايد للذكاء الاصطناعي نهجاً جديداً لكشف الأخبار الزائفة أطلقوا عليه اسم إطار التعلّم الرمزي العدائي (SALF) ويستند هذا النهج إلى أسلوب يُعرف بالتعلم الرمزي للوكيل في إطار عدائي. ويعتمد SALF على وكالتين مدعومتين بنماذج لغوية كبيرة—مولِّد وكاشف—يتبادلان الأدوار بالتناوب داخل إعداد يشبه النقاش. ينتج المولِّد نصاً، بينما يحاول جهاز الكشف تحديد العلامات التي تتسم بها الأخبار الزائفة.

في ختام النقاش، يُعطى نموذج لغوي كبير آخر يُؤدي دور «قاضٍ» النص الكامل للمناظرة، ليحكم على مدى صحة ما قاله المولِّد. وخلال هذه العملية يتم تحسين الوكالتين ويتطوِّران بشكل متبادل. الفكرة هي أن يصبح المولِّد أكثر قدرة على كتابة أخبار زائفة مقنعة، بينما يصبح جهاز الكشف أكثر كفاءة في اكتشافها، وقد نجحوا في ذلك بالفعل.

اختبر الباحثون مولِّد SALF باستخدام أحدث أنظمة اكتشاف الأخبار الزائفة، ووجدوا أنه أدى إلى تراجع الأداء بنسبة 53.4% على مجموعة بيانات باللغة الصينية، وبنسبة 34.2% على مجموعة بيانات باللغة الإنجليزية.

ويُعد تيان، إلى جانب الأستاذ المساعد في تعلّم الآلة تشي كيرونغ هو، والأستاذة المساعدة في معالجة اللغات الطبيعية شيويينغ تشين، من مؤلفي دراسة حول SALF، والتي عُرضت مؤخراً في مؤتمر الأساليب التجريبية في معالجة اللغة الطبيعية 2025 في سوتشو، الصين.

نهج التعلّم الرمزي

كان التطوّر السريع الذي تشهده نماذج اللغة الكبيرة مصدر إلهام لبحث الفريق. فحتى في سيناريوهات التعلّم بعدد قليل من الأمثلة (few-shot)، أو حتى دون أمثلة (zero-shot)، يقول تيان إن النماذج الحالية قادرة على توليد محتوى زائف يتفوق على أنظمة الكشف المصممة يدوياً بدقة. وأضاف: “هذا ما دفعنا إلى التركيز على مستوى أعلى من التجريد، والتعلم الرمزي القائم على الوكلاء هو الأنسب لتحقيق هذا الهدف”.

وتكمن الفائدة الكبرى للتعلّم الرمزي القائم على الوكلاء في كونه يعمل باللغة الطبيعية. فهو يحاكي خوارزميتين أساسيتين تُستخدمان في تحسين الشبكات العصبية، وهما الانتشار العكسي والانحدار المتدرّج. ولكن بدلاً من العمليات الحسابية االعددية، يولِّد النظام أوصافاً نصية توضح الأخطاء وطرق تحسينها. ويجري التدريب عبر تحسين المحفزات (prompts) بشكل تكراري لكُلٍ من وكيل التوليد ووكيل الكشف استناداً إلى أدائهما، كما يشرح الباحثون.

نظراً لأن هذه العملية تُجرى بالكامل عبر نصوص قابلة للقراءة، فيمكن تفسيرها بسهولة تفوق ما تتيحه أي طريقة أخرى. فمعظم أنظمة كشف الأخبار الزائفة تشبه «صناديق سوداء»، حيث يتعذر معرفة السبب وراء اعتبار نص ما حقيقياً ونص آخر مزوَّر. في إطار SALF، تُعرض جميع النسخ المتعددة من الأخبار الزائفة، والحجج التي يطرحها الوكلاء، والخسارة الرمزية، والتدرّج الرمزي، في نصوص مكتوبة بلغة بشرية يمكن للإنسان قراءاتها وفهمها، كما يقول تيان.

وتُعد قابلية التفسير أمراً بالغ الأهمية في مجال اكتشاف الأخبار الزائفة، لأن الناس بحاجة إلى فهم كيفية اتخاذ النماذج لقراراتها وأسبابها.

ما الذي توصّلوا إليه وما الخطوة التالية

تمكّن SALF من تعليم الوكلاء الكثير حول كيفية إنتاج أخبار زائفة مقنعة.

في مجموعة البيانات الصينية Weibo21، أدى نظام SALF إلى انخفاض أداء كاشف يعتمد على نموذج DeepSeek V3 بنسبة 85 % وفق مقياس يُسمّى درجة F1 للأخبار الزائفة. وقال تيان: «هذا أمر مثير للاهتمام لأنه يكشف أن، رغم ما تمتلكه نماذج اللغة الكبيرة من معرفة عامة واسعة، فإن تطبيقها الفوري في مجال متخصص مثل اكتشاف الأخبار الزائفة قد يكون هشاً بشكل غير متوقع”.

لأن SALF يعتمد أيضاً على نموذج DeepSeek V3 كنموذج أساسي له، قد يعود الانخفاض الملحوظ في الأداء إلى ظاهرة تُسمّى اقتران النماذج (model coupling). هذه الثغرة تُستغل عندما يَستخدم المهاجم نفس النموذج لتوليد محتوى زائف واستخدامه في الوقت نفسه لاكتشافه. ويوضح تيان أن اقتران النماذج يبرز «مخاطر الاعتماد على مجموعة موحدة من النماذج لكل من عملية التوليد والكشف».

حسّن جهاز الكشف قدرته على اكتشاف الأخبار الزائفة بنسبة 7.7 ٪ عند معالجة المحتوى الذي يولده المولِّد. كما أظهرت التجارب أن النظام يتقارب سريعاً، حيث تم تحسين النتائج بعد جولتين فقط.

ويخطط الباحثون لمواصلة العمل على SALF

نظراً لأن عدداً هائلاً من الأشخاص حول العالم يحصلون على أخبارهم عبر مقاطع الفيديو القصيرة على منصات التواصل الاجتماعي، يعتزم الفريق توسيع إطار SALF ليشمل البيانات المتعددة الوسائط. ولا يزال البحث في كشف المعلومات المضللة عبر هذه الوسائط في مرحلة مبكرة، حيث تُجرى عدد قليل جداً من الدراسات باستخدام نماذج اللغة الكبيرة أو تنتج نتائج قابلة للتفسير.

كما يرى الباحثون إمكانات أوسع لإطار SALF بوصفه نظاماً عاماً يمكن تطبيقه على مجموعة متنوعة من التحديات المرتبطة بنماذج اللغة الكبيرة، مثل ظاهرة الهلوسة. ففي هذه الحالة، يمكن إنشاء بيئة عدائية (Adversarial Setup) لتدريب النموذج على اكتشاف وتصحيح أوجه التناقض الواقعي التي قد تظهر في مخرجاته الذاتية.

ومع ذلك، لا يمكن لأي حل تكنولوجي واحد أن يَحَلِّ مشكلة الأخبار الزائفة بالكامل. يقول تيان: «غالباً ما تكون الحلقة الأضعف ليست التقنية، بل العنصر البشري. وستظل الهندسة الاجتماعية دائماً وسيلة أكثر فاعلية لتجاوز الدفاعات من أي استغلال تقني بحت».

أخبار ذات صلة

thumbnail
الاثنين، 16 فبراير 2026

مبادرة بحثية في جامعة محمد بن زايد للذكاء الاصطناعي تحصل على تمويل بقيمة مليون دولار أمريكي من مؤسسة غوغل

مؤسسة غوغل توفر دعماً بقيمة مليون دولار أمريكي للبروفيسورة ثامار سولوريو لقيادة مبادرة بحثية تحويلية هدفها تطوير.....

  1. النماذج اللغوية الكبيرة ,
  2. معالجة اللغة الطبيعية ,
  3. اللغة العربية ,
  4. التمويل ,
  5. غوغل ,
اقرأ المزيد
thumbnail
الاثنين، 08 ديسمبر 2025

مقياس جديد يساهم في تحسين أداء خوارزميات تخطيط مسار مركبات التوصيل ورفع كفاءة الخدمات اللوجستية

مقياس مبتكر لتقييم أداء خوارزميات تخطيط مسارات مركبات التوصيل، يساهم في تعزيز كفاءة وفعالية الخدمات اللوجستية الحديثة.

  1. مقياس معياري ,
  2. تعلّم الآلة ,
  3. المؤتمرات ,
  4. neurips ,
  5. الرؤية الحاسوبية ,
  6. البحوث ,
  7. اللوجستيات ,
  8. خدمات التوصيل ,
اقرأ المزيد