كيف يمكن للذكاء الاصطناعي أن يؤثر على الانتخابات؟

Tuesday, September 10, 2024
Person holding a badge that says 'I Voted'

تزامناً مع توجه ما يقاربُ نِصف سكان المعمورة هذا العام للإدلاء بأصواتهم عبر صناديق الاقتراع، فإن سؤال مدى تأثير الذكاء الاصطناعي في الانتخابات أصبح يشكل قضية مثيرة للجدل. ووسط كل هذا الشد والجذب، نسعى في جامعة محمد بن زايد للذكاء الاصطناعي كباحثين إلى النظر في الكيفية التي يمكننا بها جعل الذكاء الاصطناعي قوة لفعل الخير.

وباعتبار تكنولوجيا الذكاء الاصطناعي تقنية غير منحازة واعتمادها على كيفية توظيفها، قامت كبرى الشركات الفاعلة في قطاع التكنولوجيا في العالم مثل شركة جوجل ومايكروسوفت وميتا بالتوقيع على ميثاق ” انتخابات الذكاء الاصطناعي”، وهي مبادرة تم إطلاقها للتصدي للاستخدامات المضللة والخادعة للذكاء الاصطناعي. وتحقيقا لأهداف هذه الميثاق، قامت شركة جوجل – ’من باب الحيطة الحذر‘ – بمنع برنامجها “Gemini” من الإجابة على أي أسئلة متعلقة بالانتخابات خوفاً من التضليل أو حالات هذيان نماذج الذكاء الاصطناعي.

وهنالك سبب وجيه يقف وراء التحرك في اتجاه وضع نماذج لغوية كبيرة مثل “Gemini” و“ChatGPT” تحت مجهر التمحيص بغية ضمان توليدها لمعلومات دقيقة. ويوضح ديلشود عزيزوف، الحاصل على ماجستير في معالجة اللغة الطبيعية ومساعد باحث في جامعة محمد بن زايد للذكاء الاصطناعي، أن سبب هذا التوجه هو “وفق ما جاء في دراسة حديثة، فإن ’الأخبار المزيفة‘ تنتشر بست مرات أسرع من الأخبار الحقيقية، وكل ذلك يحدث في غضون أول 10 دقائق” من بث الخبر. وواقع الحال أن معادلة تحقق الإنسان من صدقية الحقائق في مقابل سرعة انتشار الأخبار الكاذبة تبقى غير متكافئة، حيث “بالنسبة لمقال واحد، سيستغرق الأمر عدة أيام لتقييمه وتصنيفه”، بحسب ديلشود.

لطالما طرحت المعلومات المضللة مشكلة للمسار الديمقراطي في أي بلد، غير أن هذه المشكلة تفاقمت أكثر من حيث حجمها وكمها ومستهدفاتها مع تكنولوجيا الذكاء الاصطناعي. ووفقًا لمحقق الأخبار المستقل NewsGuard، فإن أكثر من 10 تفاعلات مع أخبار نشرت على منصة Twitter/X وفيسبوك كانت مع قصاصات من مواقع غير موثقة. يذكر أن موقع NewsGuard يتتبع أكثر من 1000 موقع ينشئ أخباراً مولدة بواسطة الذكاء الاصطناعي دون إشراف أو تدخل بشري يذكر.

وعلى غرار موقع NewsGuard، يسعى عزيزوف وباحثون آخرون من جامعة نفسها اعتماداً على تقنيات تعلم الآلة وخوارزميات التعلم العميقة وشبكات البيانية العصبونية والنماذج اللغوية الكبيرة، بحث سبل تطوير حلول من شأنها تحسين طرق التحقق من مصداقية الأخبار. وتشير، على سبيل المثال، آخر نتائج هذا المجهود البحثي الذي يقوم به الفريق إلى أن المقالات الأطول تميل إلى أن تكون أكثر واقعية، ويتراوح عادةً عدد كلمات بين 1,000 و1,500 كلمة أو أكثر.

ويوضح بريسلاف ناكوف، أستاذ ورئيس قسم معالجة اللغة الطبيعية في جامعة محمد بن زايد للذكاء الاصطناعي، أن “المشكلة الحقيقية لا تكمن فقط في كون أن محتوى ما زائف، بل المشكل هي أن الخبر أصبح سلاحاً”، مضيفا، “في الوقت الذي يمكن فيه للنماذج اللغوية الكبيرة إنتاج محتوى زائف، فهي أيضاً يشكل أداة فعالة وقوية يمكنها تحليل هذا المحتوى”.

يمكن لطريقة عرض الأخبار وأسلوب إيصالها إلى الجمهور أن تؤثر على سلوك الناخبين، إذ تشير دراسة حديثة إلى التحيز السياسي في التغطيات الإخبارية التي يمكنها أن تؤثر على تفضيلات الناخبين المترددين بما تقدر نسبته بـ 20%. ويعد، في هذا الصدد، العمل الذي قام به بريسلاف ناكوف من خلال تطوير منصة FRAPPE ، وهي اختصار لعبارة “متصفح الأطر السياقية وأساليب الإقناع والدعاية”،  واحدا من أهم الأدوات التي ستساعد في فهم كيفية فهم المواد الإخبارية وطرق استهلاكها. يشار إلى أن المنصة المذكورة تم تطويرها اعتمادا على خوارزميات تعلم الآلة وتقنيات معالجة اللغة الطبيعية بغرض تحديد أساليب الإقناع مثل تبسيط الأسلوب واستخدام الصياغة الملتوية. وفضلا عن هذا، تقوم المنصة بتقييم أساليب التأطير السياقي من قبيل الخيارات التحريرية واستخدام الصور المستخدمة لتقسيم المقالات الإخبارية إلى مكونات أساسية، وذلك بهدف تسهيل فهم السياق على المستخدم وإدراك أهمية ما يقرؤه.

تحت إشراف البروفيسور ناكوف، ركز عزيزوف بحثه أيضاً على كشف التحيز السياسي للمواد المنشورة. حيث قام نماذج تعلم الآلة التي تم تدريبها على حزم بينات من منصتيAllSides  وMedia Bias Fact Check بتحليل المقالات الإخبارية من خلال فحص أنماط اللغة واختيارات الكلمات وأساليب التأطير السياقي.

ركز عزيزوف اهتمامه أيضاً على كيفية تأثير اختيارات الكلمات البسيطة التي حددها نموذج تعلم الآلة على مستويات التحيز السياسي. فعند الحديث عن الرعاية الاجتماعية، على سبيل المثال، قد يستخدم مصدر ذو ميول يساري عبارات مثل “البرامج الاجتماعية الحيوية” و “الدعم الضروري للفئات المستضعفة” لتسليط الضوء على أهمية الموضوع وما ينطوي عليه من مزايا إيجابية. وقد يؤطر الموضوع نفسه مصدر ذو ميول يميني بأسلوب سلبي باستخدام عبارات نحو “إرهاق دافعي الضرائب المجتهدين”. فيما قد يؤطر مصدر ذو ميول معتدل القضية في إطار أكثر حيادًا، باستخدام عبارة مثل: “الحكومة تخصص المزيد من الأموال للبرامج الاجتماعية”.

وفي الوقت الذي تحظى فيه نماذج الذكاء الاصطناعي التوليدي مثل ChatGPT بقدر كبير من الاهتمام، فإن الاستهداف الدقيق هو طريقة أخرى يتم بها استخدام الذكاء الاصطناعي في الحملات الانتخابية؛ ففي الهند استخدمت الأحزاب السياسية والاستشاريون تكنولوجيا تعلم الآلة لتحليل البيانات الشخصية للناخبين، بما في ذلك المعلومات الحساسة مثل الوضع الاجتماعي والاقتصادي، من أجل تحديد الرسائل التي من المرجح أن تؤثر على المؤيدين المحتملين.

ومن خلال بناء الوعي حول التحيز السياسي وحقيقة الأخبار وتأثير الذكاء الاصطناعي، فإن الأمل هو أن يكون الناخبون أكثر اطلاعاً عند التوجه إلى صناديق الاقتراع. ولكن نظرًا لأن الاستخدام الواسع النطاق لهذه التكنولوجيا ما يزال بعيدًا، فحتى ذلك الحين يأمل عزيزوف أن “يطبق الناس التفكير النقدي” خاصة بالنظر إلى أن المشاكل التي يفرضها الذكاء الاصطناعي من المرجح أن تستمر إلى ما هو أبعد من إعلان نتائج الانتخابات.

أخبار ذات صلة

thumbnail
Tuesday, November 26, 2024

النماذج اللغوية الكبيرة وفهم انفعالات الإنسان وعواطفه

فريق بحثي من جامعة محمد بن زايد للذكاء الاصطناعي وجامعة موناش يبحث في مدى قدرة النماذج اللغوية.....

  1. البحوث ,
  2. النماذج اللغوية الكبيرة ,
  3. EMNLP ,
  4. معالجة اللغة الطبيعية ,
  5. انفعالات الإنسان ,
  6. التعاطف ,
اقرأ المزيد