المتوقع أن عام 2024 سيكون أهم عام بالنظر إلى عدد الانتخابات المتزامنة التي ستجرى فيه، حيث سيتوجه نصف سكان العالم تقريباً إلى صناديق الاقتراع، ومن بين هذه الانتخابات المتزامنة، ينتظر العالم النتائج التي ستفرزها الانتخابات في الهند والمملكة المتحدة والاتحاد الأوروبي، وبالطبع في الولايات المتحدة حيث تبثّ القنوات التلفزيونية أحداث هذه الانتخابات التي تجرى كل أربع سنوات.
كما تتميز، فضلا عن هذا، هذه السنة عن غيرها من السنوات الماضية بالتقدم والتطور الذي تم تحقيقه في مجال الذكاء الاصطناعي، والذي أثار مخاوف حول المعلومات المضللة التي تولدها الآلة والتزييف العميق وقدرته على تضليل الناخبين.
ولم تتردد وسائل الإعلام في إلقاء الضوء على هذه المخاوف، إذ نُشرت مقالات متعددة حول إمكانية أن تلجأ الجهات العدوانية، أو لربما حتى المرشحون المعروفون والمحترمون، إلى استخدام الذكاء الاصطناعي من أجل اكتساب ميزة تساعدهم في التغلب على خصومهم.
هل فات الأوان؟ أثمة أمل في أن يستطيع الناخب العادي التعامل مع بيئة المعلومات المعادية هذه، حيث يختبئ الأشرار وراء حسابات مدفوعة على “شات جي بي تي” ويتملكون القدرة على تحديد المستقبل السياسي في الدول وفي العالم؟
بحسب بريسلاف ناكوف، رئيس قسم معالجة اللغة الطبيعية والأستاذ فيه في جامعة محمد بن زايد للذكاء الاصطناعي، قد لا يكون المستقبل قاتماً إلى هذا الحد، على الرغم من المخاطر المتعلقة بالذكاء الاصطناعي وقدرته على توليد المعلومات المضللة.
ويقول: 'أنا متفائل أن الأمور لن تخرج عن السيطرة'، علماً أنه ألف مؤخراً دراسات متعددة تقترح طرقاً لتحديد ومكافحة الاستخدامات المضرة المحتملة للنماذج اللغوية الكبيرة التي تسعى إلى توليد المعلومات الخاطئة والمضللة.
الآلة مقابل الآلة
التغيير هو العنصر الثابت الوحيد، في الحياة كما في اللغة، وقد تطور وصف الأفراد للمعلومات المضللة مع مرور الوقت.
فالدعاية، أو البروباغاندا، هي نوع من أنواع التواصل الذي يهدف إلى التأثير في الأشخاص من خلال مزيج من المعلومات الصحيحة والخاطئة، وهي ليست بمفهوم جديد، بل يعود استخدامها إلى الحضارات القديمة. علاوة على ذلك، برز مصطلح “الأخباز الزائفة” بشكلٍ خاص أثناء الانتخابات الرئاسية التي عُقدت في الولايات المتحدة في عام 2016. غير أن الأخبار الزائفة لا تصف بالضرورة عنصراً أساسياً من إنتاج المعلومات المضللة: فيقول ناكوف: “المشكلة ليست أن الأخبار الزائفة هي خاطئة فحسب، بل أنه يتم استخدامها كسلاح ضد الآخرين.”
ويعكس مصلح “المعلومات المضللة” مفهومي الكذب والضرر في الوقت عينه. ويضيف ناكوف: “إحدى الخصائص الأساسية للمعلومات المضللة هي أن غايتها لا تكون الكذب فحسب، بل إقناع الآخر أيضاً”.
وبغض النظر عن المصطلح المستخدم، باستطاعة الآلة كما الإنسان توليد المعلومات المضللة. وفي كل حالة، تظهر بعض الاختلافات البارزة من حيث اللغة تدل على ما إذ كانت الجهة التي أنتجت المعلومات هي إنسان أو خوارزميات. على سبيل المثال، عندما ينشئ الإنسان معلومات مضللة، غالباً ما يستخدم أساليب بلاغية محددة شائعة في الحملات الدعائية.
وفي حين أن الباحثين قد حققوا تقدماً في استخدام الذكاء الاصطناعي لاكتشاف المعلومات المضللة التي تولدها الآلة، ما تزال برامج الذكاء الاصطناعي تواجه صعوبة في تحديد المعلومات المضللة التي ينتجها البشر. بالإضافة إلى ذلك، يشكل الاختلاف في الأسلوب والنية بين المعلومات المضللة التي تنتجها الآلة وتلك التي ينتجها البشر عائقاً أمام إمكانية تطبيق تقنيات الكشف على هذين النوعين.
لاحظ الأستاذ ناكوف وزملاؤه الصفات التي تميز المعلومات المضللة التي ينتجها البشر وطوروا مقاربة مبتكرة لكشفها. فاستخدموا نموذجاً لغوياً كبيراً لتوليد نص يتبع الأساليب البلاغية التي يستخدمها البشر في الحملات الدعائية الحقيقية. ودمجوا تكتيكات لغوية على غرار مناشدة السلطات واللغة المشحونة في أمثلة التدريب، ما جعلها أكثر مواءمة مع الاستراتيجيات التي يستخدمها مروجو الحملات الدعائية.
بعد ذلك، استُخدم النص لتدريب تطبيق على اكتشاف الدعاية التي يكتبها البشر، وذلك بهدف تحسين أداء النموذج في إكمال هذه المهمة. ويفسر ناكوف: “نسعى إلى توليد الأخبار الزائفة التي تستخدم تقنيات الدعاية هذه عن قصد من أجل تحسين جهود محاكاة الأخبار الزائفة التي يكتبها الإنسان. نتيجة لذلك، من شأن استخدام مخزون الأخبار الزائفة الناتجة عن الآلة لأغراض التدريب أن يساهم في تطوير نظام للذكاء الاصطناعي يستطيع كشف الأخبار الزائفة التي يكتبها الإنسان بشكلٍ أفضل”.
وتشمل مقاربة الفريق عنصراً أساسياً هو دمج تقنية تُدعى التدريب التسلسلي مع النقد الذاتي، وتسمح للنموذج بالتعلم انطلاقاً من النصوص التي يولدها. كما طوّر الباحثون، من أجل اختبار فعالية إطار العمل هذا، مجموعة بيانات التدريب “بروبانيوز” التي تشمل أكثر من ألفي مثال، وصمموا البيانات بدقة لتضم مجموعة واسعة من مقالات المعلومات المضللة التي كتبها البشر من مصادر متنوعة.
ويتمثل هدفهم في أن تشكل مجموعة بيانات “بروبانيوز” مصدراً قيماً تستفيد منه جهود البحث والتطوير المستقبلية لكشف المعلومات المضللة.
اكتشاف الهلوسة
حتى لو لم يتم استخدام النماذج اللغوية الكبيرة لتوليد المعلومات المضللة عن قصد، يبقى بإمكانها إنتاج نصوص خاطئة. وعندما يقوم نموذج لغوي كبير بذلك، يُقال إنه “يهلوس”، وقد دخل هذا المصطلح في قاموس كامبريدج كـ مصطلح العام – 2023.
طور ناكوف وزملاؤه مؤخراً برنامجاً يُدعى “فاكتشيك جي بي تي” يستطيع تحديد صحة النصوص التي تولدها النماذج اللغوية الكبيرة وهلوسات الآلة. تجدر الإشارة إلى أنه تتوفر بعض الأدوات القائمة على الذكاء الاصطناعي حالياً المُصممة لاكتشاف الادعاءات الكاذبة الناتجة عن النماذج اللغوية الكبيرة، مثل “فاكتول” و”فاكسكور”، لكنها تواجه تحديات في أداء مهامها.
ويفيد ناكوف: “نريد أن تكون المعلومات التي يقدمها النموذج صحيحة، إلا إذا طلبنا منه توليد معلومات غير واقعية. غير أننا لن نستطيع الاستفادة بالكامل من النماذج اللغوية الكبيرة إلى أن نحل المشاكل المتعلقة بالحقائق، أي قدرتها على اختلاق معلومات ليست صحيحة.”
عالم جديد
بحسب ناكوف: “لا نعرف بعد ما هي نسبة المحتوى المتوفر على الإنترنت الناتج عن الآلة لكننا نعرف أن هذه النسبة سترتفع مع مرور الوقت”.
بيد أن زيادة عدد النصوص التي تنتجها الآلة ليس بأمر سيء بالضرورة، لأن النماذج اللغوية الكبيرة قادرة على إنتاج نصوص صادقة وتقدم معلومات مفيدة للبشر. ولكن تتعدد الطرق المحتملة لإساءة استخدام هذه النماذج.
ألّف الأستاذ ناكوف، بالتعاون مع علماء آخرين من مؤسسات متعددة مثل جامعة ستانفورد وجامعة كارنيجي ميلون وشركة ميتا، ورقة بحثية تصف كيف يمكننا معالجة هذه التحديات في عصر انتشار النماذج اللغوية الكبيرة وتزايد عدد الأشخاص الذين يستخدمونها.
وتشير الدراسة إلى ابتكارات تقنية ومقاربات تعليمية ومتعلقة بالسياسات العامة يمكنها الحد من المخاطر التي تطرحها النماذج اللغوية الكبيرة. ويفيد ناكوف: “إن التعامل مع المعلومات المضللة مشكلة معقدة للغاية، وعلينا أن ندمج آليات لتعزيز السلامة والتحقق من الحقائق في منصات التواصل الاجتماعي والنماذج اللغوية الكبيرة. وأيضاً يمكن لزيادة الوعي وتثقيف الأفراد حول المخاطر أن يحققا أثراً كبيراً. فقد نحدث فرقاً كبيراً عندما نظن ببساطة أن النص الذي نقرؤه هو من إنتاج الآلة، أو أنه قد يتضمن أخباراً زائفة، وعندما نشكك بهذه المعلومات بطريقة سليمة”.
مع اقتراب مواعيد بعض من الانتخابات الحاسمة، من الواضح أن الذكاء الاصطناعي سيضطلع بدور ملحوظ في تشكيل الرأي العام. وستبقى جهود مكافحة المعلومات المضللة، أكانت من إنتاج البشر أو من إنتاج الآلة، معقدة. ولكن بفضل البحوث المستمرة وزيادة الاهتمام بهذا الموضوع، يأمل العلماء والباحثون أمثال ناكوف وزملائه أن يتمكنوا من تطوير أدوات تزودنا بنظرة أوضح عن العالم من حولنا عوضاً عن تشويش الصورة.
يحتفي العالم في 18 ديسمبر من كل عام باليوم العالمي للغة الضاد في لفتَتٍ يقف فيها العالم.....
A team from MBZUAI is improving LLMs' performance across languages by helping them find the nuances of.....
A team from MBZUAI created a fine-grained benchmark to analyze each step of the fact-checking process and.....