في السنوات القليلة الماضية، تناولت العديد من الدراسات في مجال معالجة اللغة الطبيعية كيفية تمثيل النماذج اللغوية الكبيرة للثقافات المختلفة؛ وهذا موضوع مهم لأن الناس في جميع أنحاء العالم يتوقعون من هذه النماذج تقديم معلومات دقيقة وآمنة بصرف النظر عن ثقافتهم أو لغتهم.
وفي هذا السياق، قدم مؤخراً باحثون من جامعة محمد بن زايد للذكاء الاصطناعي وجامعة واشنطن ومؤسسات أخرى دراسات بحثية تستكشف الطرق المعقدة لتمثيل الثقافة في نتاج النماذج اللغوية الكبيرة. وعُرِضَت هذه الدراسات في مؤتمر الأساليب التجريبية في معالجة اللغة الطبيعية لعام 2024 الذي عُقد في ميامي.
محمد فريد أديلازواردا باحث مساعد في جامعة محمد بن زايد للذكاء الاصطناعي يركز اهتمامه على تطوير نماذج لغوية متعددة الثقافات واللغات بكفاءة عالية. وهو أحد مؤلفي دراسة تحليلية تستعرض عشرات الدراسات الحديثة حول النماذج اللغوية الكبيرة والثقافة، وتقترح إطاراً جديداً يمكن استخدامه لتوجيه الأبحاث المستقبلية. كان من بين أهداف أديلازواردا وزملائه من إعداد هذه الدراسة فهم كيفية تعريف الباحثين لمصطلح “الثقافة” في سياق معالجة اللغة الطبيعية. ولم يكن الفريق يتوقع أن يخلص إلى عدم وجود تعريف لهذا المصطلح حتى الآن.
يوضح أديلازواردا أنه لا يوجد تعريف موحد ومقبول على نطاق واسع لمفهوم الثقافة. وعلى الرغم من أن الباحثين في مجال معالجة اللغة الطبيعية غالباً ما يلجؤون إلى تخصصات أخرى مثل علم الاجتماع والأنثروبولوجيا لمساعدتهم في كيفية التفكير في هذا المفهوم، فلا يوجد إجماع في هذا الشأن. علاوة على ذلك، تترابط اللغة والثقافة ترابطاً وثيقاً لدرجة يصعب معها الفصل بينهما، مما يشكل تحدياً للباحثين الذين يعملون على النماذج اللغوية الكبيرة، حيث يتعين عليهم تفسير كيفية تمثيل النماذج للثقافة من خلال عدسة اللغة.
بدأ أديلازواردا وزملاؤه بتحديد الأوراق البحثية ذات الصلة التي قُدمت في الاجتماع السنوي لجمعية اللغويات الحاسوبية، وهي أكبر منظمة علمية في مجال معالجة اللغة الطبيعية، بالإضافة إلى مؤتمرين آخرين حول الذكاء الاصطناعي ودراسات عثروا عليها عبر محرك Google Scholar. وأسفر هذا البحث عن اختيار 90 دراسة.
ثم قرأ الفريق الأوراق وصنّفها وفقاً للطرق التي استخدمها الباحثون لاستكشاف النماذج اللغوية الكبيرة، واللغات والثقافات التي دُرست، وتعريفات الثقافة المستخدمة في هذه الدراسات.
لكن أثناء قراءة هذه الأوراق، أدرك الفريق أنه لا يوجد في أي منها تعريف واضح لمصطلح الثقافة. وحتى في الحالات التي قدمت فيها بعض الدراسات تعريفاً، كان هذا التعريف عاماً للغاية وغير مفيد بالضرورة. فلم يكن هناك مفهوم موحد بين الباحثين عند الحديث عن الثقافة.
كانت الدراسات التي حللها أديلازواردا وزملاؤه تقيّم أداء النماذج اللغوية الكبيرة باستخدام ما يُعرف بمجموعة البيانات المرجعية، وهي طريقة شائعة تتيح للباحثين مقارنة أداء النماذج على نفس مجموعة البيانات، مما يسمح بشيء من الفهم لنقاط قوتها وضعفها.
ورغم أن التقييم باستخدام البيانات المرجعية يوفر معلومات قيمة حول أداء النموذج، إلا أن الرؤى المستخلصة من هذه الاختبارات تظل محدودة. فهي تُظهر قدرة النموذج على التعامل مع البيانات المرجعية، لكنها لا تعكس بالضرورة كيفية تصرف النموذج عند استخدامه في العالم الواقعي.
بعد مراجعة جميع الدراسات، صاغ أديلازواردا وزملاؤه فكرة مفادها أن الدراسات لا تقدم تعريفات واضحة للثقافة، ولكن البيانات المرجعية تعمل فعلياً بمثابة مؤشرات على الثقافة. تكمن المشكلة في أن الباحثين في مجال معالجة اللغة الطبيعية يستخدمون مجموعات بيانات مختلفة، مما يخلق تبايناً في التقييمات.
علاوة على ذلك، يوضح أديلازواردا أن الثقافات تُعتبر مفاهيم شديدة التنوع والسيولة، ولا يمكن قياسها بسهولة إن أمكن ذلك أصلاً. فمجموعات البيانات تكون عادةً محددة للغاية وتختبر جانباً واحداً فقط من أداء النموذج، مثل ما يتعلق بالدين أو الجنس. ويضيف قائلاً: “لا يمكن التعبير عن قدرة النموذج على تمثيل الثقافة من خلال رقم يستند إلى أداء ذلك النموذج في مجموعات البيانات المرجعية”.
يقول مونوجيت تشودري، أستاذ معالجة اللغة الطبيعية في جامعة محمد بن زايد للذكاء الاصطناعي وأحد المشاركين في الدراسة، في سياق حديثه عن أهمية هذه الدراسة البحثية: “تقدم الدراسة إطاراً يساعد على الحديث عن الثقافة بشكل أوضح. ونظراً للطبيعة المتعددة الأوجه للثقافة، فإن هذا الإطار يمثل نقطة انطلاق مهمة لتوجيه الأبحاث المستقبلية”.
تقدم الدراسة عدة توصيات للمساعدة على تقدم البحوث حول موضوع الثقافة، وتحث الباحثين على تحديد الجوانب الثقافية التي تقيسها مجموعات البيانات بشكل واضح. كما تدعو إلى إجراء المزيد من البحوث حول مواضيع مثل الجودة، والزمن، والروابط الأسرية، ومفهوم “عنونة المواضيع” الذي يشير إلى “المواضيع والقضايا التي تُعتبر ذات أولوية أو ذات صلة في ثقافات مختلفة”.
كما أشار مؤلفو الدراسة إلى مجال معالجة اللغة الطبيعية سيستفيد من المزيد من الدراسات المصممة بشكل يسمح بتفسير نتائجها، لأن نتائج نماذج الصندوق الأسود تختلف اختلافاً كبيراً تبعاً لصيغة الأمر المُعطى. وفي الواقع، هناك دراسة أخرى قُدمت في مؤتمر الأساليب التجريبية في معالجة اللغة الطبيعية وشارك في تأليفها أديلازواردا وتشودري وآخرون، استعرضت مفهوماً يُعرف بالمحفز الاجتماعي والديموغرافي، وهي طريقة يمكن استخدامها مع النماذج المفتوحة المصدر ونماذج الصندوق الأسود لتوضيح تمثيلات النماذج للثقافة، ولكن نتيجتها تتغير تبعاً لطريقة معالجة النماذج للأوامر.
وأخيراً، دعا الفريق إلى مزيد من التعاون بين التخصصات المختلفة، بما في ذلك مجالات مثل التفاعل بين الإنسان والحاسوب والأنثروبولوجيا.
ساهم في هذه الدراسة برادهيمنا لفانيا، وأشوتوش مودي، وسيدهانت سينغ من المعهد الهندي للتكنولوجيا في كانبور، وجاكي أونيل من مايكروسوفت للأبحاث أفريقيا، وساغنيك موخرجي وألهم فكري آجي من جامعة محمد بن زايد للذكاء الاصطناعي.
بينما تسلط دراسة أديلازواردا وزملائه الضوء على التحديات النظرية لتعريف الثقافة وتقييمها في النماذج اللغوية الكبيرة، تبحث دراسة أخرى قُدِّمت في مؤتمر الأساليب التجريبية في معالجة اللغة الطبيعية في الآثار العملية لهذه التحديات، وكيفية ظهور التحيزات الثقافية عند استخدام الذكاء الاصطناعي على أرض الواقع، كما في عمليات التوظيف مثلاً.
تتناول هذه الدراسة كيفية تعامل النماذج اللغوية الكبيرة مع التحيزات المتعلقة بالعرق كما يُفهم في الغرب، والنظام الطبقي كما يُفهم في الهند. وفي سياق التوظيف، نظر الباحثون فيما يُعرف بالتهديدات الاجتماعية والإساءات الخفية، ويُقصد بها النصوص المسيئة التي تُصاغ بأسلوب قد يحول دون كشفها نتيجة لعدم استخدام كلمات مسيئة بشكل صريح.
قاد هذه الدراسة بريتام برابو سريكار دامو وهايونغ جونغ، وهما طالبا دكتوراة في جامعة واشنطن. كما ساهمت فيها أنجالي سينغ وتانوشري ميترا من جامعة واشنطن، ومونوجيت تشودري.
تناول عدد كبير من الأبحاث السابقة كيفية تمثيل النماذج اللغوية الكبيرة لمفاهيم تتعلق بالعرق. ولكن قلة من الأبحاث تناولت الصور النمطية التي تنتجها النماذج اللغوية الكبيرة فيما يتعلق بالنظام الطبقي؛ وفي هذا الصدد، يقول تشودري: “السردية السائدة حول التحيز في الذكاء الاصطناعي تتمحور كثيراً حول الغرب. وبينما تُصمم النماذج بشكل عام لضمان خلو نتاجها من العنصرية أو التحيز لأحد الجنسين، فهناك الكثير من أشكال التحيز الأخرى”.
يشير دامو إلى إمكانية استخدام أدوات الذكاء الاصطناعي لتقييم المتقدمين للوظائف، مما يجعلها تلعب دوراً كبيراً في تحديد من يحصل على الوظيفة ومن لا يحصل عليها، مضيفاً: “إذا رفض الذكاء الاصطناعي مرشحاً جديراً بالوظيفة في الجولة الأولى أو الثانية بسبب تحيز معين، فهذا يساوي عدم منحه فرصة على الإطلاق”.
ويؤكد دامو أن هذه ليست مشكلة قد نواجهها في المستقبل البعيد، بل هي “تحدث الآن”.
درس الباحثون أداء ثمانية نماذج لغوية كبيرة، من بينها نماذج مفتوحة المصدر ونماذج مغلقة المصدر، في سياق عملية توظيف الموظفين، حيث أنشأ الفريق مجموعة من التعليمات الأولية للحوار تضمنت معلومات عن الهوية العرقية أو الطبقية لمتقدمين افتراضيين للوظائف. في سياق العرق، استخدموا الهويتين “أبيض” و”أسود”، بينما استخدموا في سياق الطبقات الاجتماعية هويتي “البراهمن” و”الداليت”.
اختار الباحثون بشكل عشوائي أسماءً تشير ثقافياً إلى أعراق وطبقات اجتماعية مختلفة، وركزوا على أربع وظائف يجري التقدم لها، وهي مطور برمجيات، وطبيب، وممرض، ومعلم. وتم اختيار هذه الوظائف نظراً لتنوع التصورات المجتمعية والصور النمطية المرتبطة بها من حيث العرق والطبقة الاجتماعية.
أنشأ الفريق 30 حواراً لكل مزيج من الوظائف والمفاهيم الثقافية والنماذج اللغوية الكبيرة، وكانت نتيجة ذلك 1,920 حواراً في المجموع.
وحلل الباحثون الردود باستخدام إطار جديد قاموا بتطويره اسمه “الإساءات الخفية والتهديدات الاجتماعية”. يتكون هذا الإطار من سبعة مقاييس مستمدة من أدبيات العلوم الاجتماعية، بما في ذلك نظرية تهديد الهوية الاجتماعية ونظرية التهديد بين المجموعات، مع أخذ الإساءات المختلفة التي قد يتعرض لها الأشخاص بسبب هويتهم في الاعتبار. كما طوروا نموذجاً خاصاً لحساب هذه المقاييس وجعلوه متاحاً للجمهور.
كانت الدراسات الأخرى حول الإساءات المحتملة في نتاج النماذج اللغوية الكبيرة تستخدم طرقاً تسمى بالهجمات العدائية أو اختراق النماذج، حيث يحاول المستخدمون عمداً دفع النماذج لإنتاج ردود مسيئة. ولكن دامو وزملاءه سعوا إلى تقييم أداء النماذج في حالتها الحيادية من خلال تقديم السياق ومراقبة الردود.
وجد الباحثون أن النماذج مفتوحة المصدر أنتجت حوارات أكثر إساءة فيما يتعلق بالطبقات الاجتماعية، وأن خمسة من النماذج الثمانية أنتجت نصوصاً أكثر إساءة للمهن القديمة. يقول دامو موضحاً هذه النتائج: “كشفت النتائج عن آراء أكثر تحيزاً فيما يتعلق بالمهن القديمة مثل المعلم والطبيب، التي ارتبطت تاريخياً بطبقات اجتماعية أعلى”.
ويشير دامو إلى أن النماذج التي طورتها “أوبن أيه آي” قدمت أداءً أفضل مقارنة بالنماذج مفتوحة المصدر، ولكنه يستدرك قائلاً: “لا نعرف ما يحدث خلف الواجهة البرمجية لنموذج “أوبن أيه آي” لأننا لا نستطيع الوصول إلى النماذج الفعلية أو معرفة ثقلها النسبي. قد تكون هناك أدوات فلترة أو طبقات إضافية، حتى لو كانت النماذج الأساسية نفسها ما زالت تعاني من مشكلات”.
يؤكد المؤلفون أن النتائج تسلط الضوء على المخاطر المرتبطة باستخدام النماذج اللغوية الكبيرة على أرض الواقع دون احتياطات، لأنها قد تعزز التفاوتات الاجتماعية والصور النمطية، خاصة في دول الجنوب العالمي. ويضيف دامو: “قد تكون هذه النماذج مسيئة حتى في الإعدادات الافتراضية. ويجب أن يعرف المستخدمون أن النموذج يمكن أن ينتج محتوى مسيئاً حتى في غياب أي محاولة لاختراقه، وعندما ينتج شيئاً مثيراً للجدل يكون من الصعب كشفه لأنه لا يستخدم لغة مسيئة بشكل صريح”.
ومع ذلك، يرى تشودري أن الوعي بالمشكلة يمثل الخطوة الأولى لحلها، حيث يقول: “عندما يدرك المطورون وجود هذه المشكلات، يمكنهم إصلاحها إذا أرادوا ذلك”.
بعد نجاحه في تطوير أدوات مدعومة بالذكاء الاصطناعي تساعد في الكشف عن المعلومات المضللة والخاطئة، يركز زين.....
اقرأ المزيديحتفي العالم في 18 ديسمبر من كل عام باليوم العالمي للغة الضاد في لفتَتٍ يقف فيها العالم.....
استراتيجية جديدة لإعطاء الأوامر تسمى "الاستكشاف الموجه ذاتياً"، تساعد في تحسين أداء النماذج اللغوية الكبيرة بشكل كبير.
اقرأ المزيد