ربما قد سمعتَ بالمُحاميين اللَّذين غُرِّمَا في نيويورك لإقامة دعوى بسبب إحالات مرجعية على أحكامَ وهمية قالا إنهما غير مسؤولَين عنها. المحاميان موضوع هذه الواقعة اعتمدَا “شات جي بي تي” لكتابة مستند إقامة الدعوى، ولم يعلما – حينها – أن برنامج الدردشة الآلي، إضافة إلى قدرته على إنتاج النصوص المكتوبة بسهولة، يمكنه أيضاً اختلاق أمور غير حقيقية.
تُعرَف هذه الظاهرة بهذيان النماذج اللغوية، وهي مشكلة حدت – إلى حد الساعة – من إمكانية الاستفادة الكاملة من قدرات هذه النماذج نوعاً ما.
ولحلِ هذه المشكلة، مكسيم بانوف – أستاذ مساعد في قسم تعلم الآلة بجامعة محمد بن زايد للذكاء الاصطناعي – يعمل على تطوير أساليب تُركز على الإحصاءات النظرية التي يمكنها أن تسهم في تعزيز مستويات الاستفادة من قدرات النماذج اللغوية وتطبيقات تعلم الآلة الأخرى.
نُظم بِطبيعتها تَنَبُئِية
شكلت دراسات الدكتوراه بالنسبة لـ بانوف، الذي حصل على ماجستير الرياضيات التطبيقية مع تركيز على تعلم الآلة ودكتوراه الإحصاء النظري، منعطفاً أسهَم بشكل كبير في تحديد طبيعة مساره البحثي الحالي الذي لا يكتفي فيه بالتركيز على تعزيز جودة تنبؤات نماذج تعلم الآلة، بل يركز فيه أيضاً على الأسس النظرية التي تستند إليها جهوده البحثية.
يذكر أن اهتمام بانوف البحثي ينصب على ما يُعرف بقياس درجات عدم يقين نماذج تعلم الآلة؛ وكما يدل على ذلك اسم مجال اهتمامه البحثي، فإن قياس درجات عدم اليقين هي مُقاربة تُمكِّن من تحقيق فهم لمستويات ومدى يقين نموذجٍ ما لتعلم الآلة وثقته بالتنبؤات التي يصل إليها.
الملاحظ هو أن نماذج تعلمِ الآلة – التي غالباً ما يتم تطويرُها اعتماداً على الشبكات العصبية – هي إلى حد ما نُظمٌ تنَبُئية تحدد مخرجاتها بناءً على البيانات التي تعاملت معها في السابق والطرق التي دُرِّبت بها. ونظراً لأن بيانات التدريب محدودة وتتسم دائماً بعشوائيتها، فإن النماذج التي يتم تطويرها لا تكون مثالية، وتنطوي دائماً على درجة من عدم اليقين تؤثر على دقة التنبؤات.
التحدي الإضافي هنا هو أنه ما لم يتم تطويرُها للقيام بخلاف ذلك، فإن نماذج تعلُم الآلة ستولد – بطريقة أو بأخرى –تنبؤات، حتى ولو كانت سيئة. وتشكل حالات هذيان النماذج اللغوية هذه، حالة تكون فيها غير متيقنة من دقة النص الذي أنتجته ورغم ذلك تقوم – في كل الأحوال – بإنتاجه.
وتعتبر، خصوصاً، النماذج القادرة على الامتناع عن توليد تنبؤات ذات قيمة مضافة خاصة في مجال مثل الطب، حيث الدقة تعني الفَرق بين التعافي من عدمه للمرضى، فيما لا يحتاج الأمر – بالنسبة للتطبيقات الأخرى – مثل برامج الدردشة الآلية، إلا قيام النموذج بتنبيه المستخدم إلى أن النموذج غير متأكد من تَنَبُّئه.
الواقع هو أن مهندسي الذكاء الاصطناعي بإمكانهم بناء هيكلية نماذج مزودة بخاصية تمكنها من إطلاع مستخدميها عن درجات يقينها ومدى ثقتها بتنبؤاتها، غير أن بحث بانوف يسعى إلى أكثر من هذا من خلال عمله على تطوير “تقنيات المعالجة اللاحقة” لتقدير درجات عدم يقين نماذج تعلم الآلة، والتي تعتبر تقنيات تكميلية لنماذج تم فعلياً تدريبها.
وعن هذه التقنيات يقول بانوف: “أنها مهمة جداً للتطبيقات الحديثة لأن الناس يميلون إلى استخدام شبكات عصبية ضخمةٍ جداً، وإعادة تدريب هذه الشبكات مُكلِف للغاية”، ويضيف: “إذا تمكنا من تطوير أدوات يمكن أن نستخدمَها مع الشبكات العصبية القائمة، فسيُمكِّننا هذا من توفير مزايا كثيرة للمستخدمين.”
ويُعتبر تطوير “تقنيات المعالجة اللاحقة” أيضاً ذو قيمة إذا ما أخذنا في الاعتبار معطى أن الكيفية التي سيُستخدم بها نموذج ما لتعلم الآلة لا تكون دائماً معروفة خلال مراحلِ التدريب. وأوضح بانوف، في هذا السياق، أن الهدف من جهوده البحثية هو: “تحسين قدرة الشبكات العصبية على التعامل مع أشياء لم يتم تصميمها خصيصاً من أجلها”.
مُعالجة هذيان النماذج اللغوية
أحد الأمثلة على أعمال بانوف الأخيرة في هذا المجال البحثي، هي الدراسة التي أنجزها بالتعاون مع باحثين من جامعة محمد بن زايد للذكاء الاصطناعي ومؤسسات أخرى، والتي تقترح نهجاً لتحديد حالات هذيان النماذج اللغوية. ويلبي هذا العمل البحثي حاجة كبيرة، حيث إن معظم النماذج غير مزودة بالقدرة التي تمكنها من تحديد المعلومات التي قد تكون غير موثوقة في مخرجاتها.
ويُوضح بانوف أن: “الكثير من الناس يستخدمون النماذج اللغوية لأغراضَ متنوعة، وتبقى – حتى بالنسبة لأقواها – كمية المعلومات الخاطئة التي تولدها كبيرة”. ويضيف: “ما نريد تحقيقَه هو تحديد الإفادات غير الصحيحة باستخدام ’تقنيات المعالجة اللاحقة‘ استناداً إلى أسس إحصائية ونظرية قوية”.
ولا تكمن المشكلة هنا في هذيان النماذج اللغوية فحسب، بل أيضاً في المعلومات غير الصحيحة أو المختلقة تماماً التي يمكن أن تظهر في الجملة نفسها كبيانات و/أو معلومات دقيقة، مما يُصَّعِب على الأشخاص الذين يستخدمون هذه النماذج التمييز بين الحقيقة والخيال.
وتوضيحاً قال بانوف: “عندما تقرأ ما ينتجه نموذج لغوي، لا يوجد سبيل للتمييز بين ما هو صحيح وما هو ليس كذلك. وأضاف: “إذا ما تمكنا من تحديد الحالات التي يكون فيها النموذج غير متأكد من مخرجاته وإبرازها للمستخدمين، فمن شأن ذلك أن يحَسِّن درجات موثوقية هذه النماذج بشكل كبير”.
النهج الذي اتبعه بانوف وزملاؤه من شأنه تمكين المستخدمين من معرفة ما إذا كان النموذج اللغوي متأكداً من النص الذي أنتجه. ويصفون مقاربتهم هذه باسم “الاحتمالية المشروطة للإفادة”، وهو مقياس لدرجة عدم يقين النموذج اللغوي يعتمد على الأساليب الخاصة بنموذج لغوي مفتوح المصدر لبناء الجُمل من خلال التفكير الاحتمالي على مستوى العناصر اللغوية أو ما يعرف باللغة الإنجليزية بـ Tokens.
العنصر اللغوي (Token) في معالجة اللغة الطبيعية هو في الأساس كلمةٌ أو جزءٌ من كلمة تتم معالجتها بواسطة الحاسوب؛ فعندما يقوم النموذج اللغوي بإنشاء مخرَجٍ (نص مكتوب)، فإنه يتنبأ بالسلسلة الأكثر ملاءمة من العناصر اللغوية المتتالية بناءً على السياق، حيث تظهر بعض العناصر اللغوية (Tokens) في السلسلة بدرجة يقين عالية، وبعضها الآخر بدرجة يقين أقل.
وتحدد مقاربة بانوف وزملائه العناصر اللغوية التي قد لا يكون النموذج متأكداً من صحتها في تسلسل معين. كما تُمكنهم هذه المقاربة من قياس درجة عدم يقين نموذج ما في سلسلة عناصر لغوية واستخدام هذه النتائج لتحديد درجات عدم اليقين في الإفادات التي أنتجها النموذج اللغوي. وكما أشار إلى ذلك بانوف وزملاؤه في دراستهم فإن “عدم اليقين مهم للتحقق من الحقائق، لأنه إذا كان النموذج غير متأكد من المعلومات التي ينقلها، فقد يكون هناك احتمال كبير لحدوث خطأ في الحقائق”.
اتجاهات جديدة
هناك بالتأكيد تحسينات يمكن إجراؤها على أنظمة مثل “شات جي بي تي” لزيادة دقتها، غير أنه لا يوجد نظام يعمل بشكل مثالي طوال الوقت. ويوضح بانوف هذا قائلا: “هدفنا المثالي هو تطوير نماذج لا ترتكب أخطاء أبداً، غير أن، عملياً، أي نموذج يتم تطويره سيكون به مشكلات، ونحن بحاجة إلى أساليب لحلها”.
وبالنظر إلى مسار تطور أبحاثه في هذا المجال، فإن بانوف يفكر في كيفية إدراج القياس الكمي لعدم اليقين في الأنظمة. وقال: “أنا مهتم بتطوير البنى وإجراءات التعلم التي تعمل بشكل جيد من ناحية، ولكن من ناحية أخرى، ستكون لديها القدرة على قياس عدم اليقين بشكل طبيعي”.
يحتفي العالم في 18 ديسمبر من كل عام باليوم العالمي للغة الضاد في لفتَتٍ يقف فيها العالم.....
فريق بحثي من جامعة محمد بن زايد للذكاء الاصطناعي وجامعة موناش يبحث في مدى قدرة النماذج اللغوية.....
اقرأ المزيدفريق بحثي من جامعة محمد بن زايد للذكاء الاصطناعي يفوز بجائزة تقديرية عن دراسة بحثية تشجع الباحثين.....