“منصة تصنيف ليبرا”.. نحو نماذج لغوية كبيرة تُوازِن بين كفاءة الأداء والموثوقية

Tuesday, February 18, 2025
Haonan Li of

خطت شركة LibrAI الناشئة في مجال رصد مستويات سلامة الذكاء الاصطناعي، والتي تتخذ من جامعة محمد بن زايد للذكاء الاصطناعي مقراً لها، خطوة إضافية نحو ضمان تطوير الذكاء الاصطناعي بشكل آمن ومسؤول وأخلاقي من خلال إطلاقها لـ “منصة تصنيف ليبرا” التي تشكل مرجعاً متخصصا في تقييم النماذج اللغوية الكبيرة يهدف إلى رصد وسد الفجوة بين مستويات كفاءة أداء هذه النماذج وسلامتها.

وقد تأسست شركة LibrAI عام 2023 بدعم من “مركز حضانة وريادة الأعمال” التابع للجامعة، وهي شركة تقدم خدماتها للمطورين من خلال تمكينهم من اختبار نماذج الذكاء الاصطناعي التي يطورونها في بيئة آمنة بهدف تقييم مدى سلامتها وبالتالي تعزيز مستويات التطوير المسؤول لتكنولوجيا الذكاء الاصطناعي.

يذكر أن “منصة تصنيف ليبرا” توفر تقييماً شاملاً لـ 26 نموذجاً من النماذج اللغوية الكبيرة الأكثر استخداماً بما فيها نماذج: Claude وChatGPT وGemini باستخدام 57 مجموعة للبيانات – معظمها من عام 2023 وما بعده – بغرض تقييم كل منها فيما يخص قدراتها ومدى سلامتها بهدف توجيه عملية تطوير الذكاء الاصطناعي في المستقبل.

وعن أهمية المنصة وسبب تطويرها أوضح هاونان لي، الباحث ما بعد الدكتوراه في الجامعة والمدير الفني لشركة LibrAI أن: “غالبية المستخدمين يركزون على قدرات الذكاء الاصطناعي وما إذا كان بوسعه التواصل بلغات متعددة؟ أو التفكير بشكل منطقي؟ أو اجتياز اختبار في الرياضيات؟ – كل هذا جيد، غير أننا فيLibrAI  ركزنا على جانب الأمن والسلامة في تطوير نماذج الذكاء الاصطناعي.”

تشكل “منصة تصنيف ليبرا” الجديدة من LibrAI نظاماً متوازناً هدفه قياس كفاءة وموثوقية النماذج اعتماداً على عدة معايير مهمة مثل التحيز، ومدى القدرة على تجنب نشر المعلومات المضللة، ومدى الحساسية تجاه المدخلات البسيطة، والتي على أساسها يتم تقييم ثلاثة جوانب تخص كفاءة الأداء، والموثوقية، ثم تقييم إجمالي لهما.

ويوضح لي أن: “التقييم الإجمالي لا يعكس فقط متوسط مستوى كفاءة الأداء والموثوقية، بل هو أيضاً تقييم كلما انخفض أشار إلى أن الفجوة بين كفاءة الأداء والموثوقية كانت أكبر؛ وكلما عَلا أشار إلى عكس ذلك، أي أن النماذج التي تكون كفاءة أدائها وموثوقيتها متقاربة، فإن التقييم الإجمالي يكون أعلى – وفي تقديري أن النماذج ينبغي أن تسعى دائما إلى تقليص هذه الفجوة”.

التعليم وتعزيز الوعي

أطلقتLibrAI  بجانب منصتها “ليبرا”، “منصة الموثوقية التفاعلية” التي تهدف إلى توعية الجمهور بأهمية سلامة نماذج الذكاء الاصطناعي. وتمكن المنصة مستخدميها من اختبار نماذج الذكاء الاصطناعي باستخدام مدخلات تنافسية، والتوجيه والتدريب، وتقديم الملاحظات مما يساهم في تعزيز الوعي بالمخاطر المحتملة المرتبطة بسلامة النماذج اللغوية الكبيرة.

وعن هذه المنصة يوضح لي: توفر المنصة تجربة تعليمية تفاعلية سهلة يمكن للمستخدمين من خلالها – مثلا – مقارنة موثوقية نموذجين بإدخال مدخلات مُثيرة للجدل ثم تقوم المنصة بمقارنة مخرجات النموذجين، مما يمكن المستخدم من معاينة كيفية تعامل كل نموذج مع هذا النوع من المدخلات واختيار النموذج الأكثر موثوقية بناءً على هذه المقارنة ونتائجها التي يتم تسجيلها ضمن نتائج ’منصة تصنيف ليبرا‘”.

وفي المستقبل، يخطط فريق LibrAI إلى العمل على تحديث “منصة تصنيف ليبرا” بمجموعات بيانات ومعايير تقييم جديدة لمعالجة الثغرات الناشئة في نظم الذكاء الاصطناعي بانتظام، إضافة إلى تطوير جوانب من “منصة الموثوقية التفاعلية” بما يجعلها توفر تجربة تفاعلية متكاملة. 

وتظل هذه التجربة مبدئية وقابلة للتطوير، حيث يعمل فريق عمل LibrAI على تطوير منتج تقييم آخر للذكاء الاصطناعي يأملون أن يؤسس لمعيار جديد في مجال سلامة نظم الذكاء الاصطناعي وموثوقيتها.

وعن هذه الخطوة الجديدة ذكر لي بأن الشركة تعمل على تطوير منصة لتقييم الذكاء الاصطناعي ستساعد المؤسسات في التقييم المسبق لنظم الذكاء الاصطناعي من حيث التوافق والموثوقية والامتثال الأخلاقي – مضيفا: “إننا نعتقد أن هذه المنصة ستكون ضرورية وستزود المستخدمين بالأدوات اللازمة للاستفادة من إمكانيات الذكاء الاصطناعي بشكل آمن ومسؤول”. 

أخبار ذات صلة

thumbnail
Monday, January 27, 2025

أخبار الخريجين: رحلة مواصلة البحث عن الحقيقة

بعد نجاحه في تطوير أدوات مدعومة بالذكاء الاصطناعي تساعد في الكشف عن المعلومات المضللة والخاطئة، يركز زين.....

  1. الخريجون ,
  2. النماذج اللغوية الكبيرة ,
  3. معالجة اللغة الطبيعية ,
  4. الأبحاث ,
اقرأ المزيد