بينما تحتفل الإمارات بشهر الابتكار تحت شعار “الإمارات تبتكر 2025″، يحاول تيموثي بالدوين – عميد جامعة محمد بن زايد للذكاء الاصطناعي والأستاذ المتخصص في معالجة اللغة الطبيعية – التفكيرَ في بعض التطورات والتحديات التي قد نشهدها هذا العام في مجال الذكاء الاصطناعي.
لم يكد شهر فبراير يطل علينا، غير أنه – وعلى ما يبدو – فإن عام 2025 يَعِد بأن يكون عاماً مليئاً بالأحداث والمحطات المهمة التي تمس مجال الذكاء الاصطناعي.
ففي الشهر الماضي، أعلنت شركات OpenAI وOracle وSoftBank عن مبادرة بقيمة 500 مليار دولار بغرض بناء بنية تحتية متكاملة خاصة بالذكاء الاصطناعي، ثم تبع ذلك مباشرة إعلان مختبر DeepSeek الصيني إطلاق نموذج R1 – النموذج اللغوي الكبير مفتوح الأوزان [أي أن القيم العددية التي تحدد كيفية تفاعل النموذج مع المدخلات متاحة للجمهور]. يذكر أن نموذج R1 يكاد يكون مشابهاً في أدائه لنماذج رائدة بما فيها نموذج o1 من OpenAI، غير أن تكلفة تطوير الأخير [R1] كانت أقل بكثير.
وقد أوضح باحثون من مختبر DeepSeek في ورقة بحثية أن نموذج R1، استطاع تحقيق هذا المستوى من الأداء بفضل اعتماده على نماذج مفتوحة من Meta وAlibaba؛ ولم تمض على هذا الإعلان سوى أيام قليلة حتى أعلنت OpenAI عن طرحها لنموذج o3-mini – النموذج منخفض التكلفة ضمن سلسلة نماذجها مفتوحة الأوزان الذي عادَلَ أو فاق في دقته نموذج o1.
تشير كل هذه التطورات المتتالية – بما لا شك فيه – إلى أن الذكاء الاصطناعي هو مجال تقني سريع التطور، وسرعة تطوره هذه تجعلنا نتساءل عمَّا قد يخفيه الغد في ثناياه — في الحقيقة لا أحد منا يعلم إلى أين يمضي مستقبل تطور الذكاء الاصطناعي، ولكنني – فيما يلي – سأحاول عرض ستة توقعات عن التطورات والتحديات الجديدة التي قد نشهدها في عالم الذكاء الاصطناعي في ما تبقى من عام 2025.
جُل الأشخاص الذين يستخدمون اليوم نظم أو نماذج الذكاء الاصطناعي مثل النماذج اللغوية الكبيرة، يتفاعلون معها من خلال مدخل نصي أو صوتي. كما أن مخرجات هذه النظم أو النماذج نفسها تتخذ شكلا نصياً مكتوباً أو كلاماً مسموعاً، غير أن هذا في طريقه إلى التغير والتحول بالانتقال إلى مرحلة تصبح فيها هذه النظم أو النماذج قادرة على القيام مقام الإنسان وتنفيذ إجراءات مباشرة.
عام 2025، سيكون عام الانطلاق لنظم الذكاء الاصطناعي الفاعل [Agentic AI] مقارنة بنظم الذكاء الاصطناعي المساعدة [AI Agents] التي يمكنها التفاعل مع نظم أخرى وأداء مهام نيابة عن المستخدم نظراً لهيكليتها المصممة لمعالجة الأوامر، والوصول إلى الإجراء المناسب ثم تنفيذ المهمة المطلوبة على غرار ما كان متوقعاً من نظم ذكية مثل Siri وAlexa التي فشلت باستثناء قدرتها على تنفيذ بعض المهام البسيطة مثل تنظيم الوقت.
نظم الذكاء الاصطناعي الفاعل [Agentic AI] – في المقابل – تجمع بين قدرتها على التخطيط والتنفيذ ويمكن للمستخدمين الاستفادة منها بشكل كبير؛ فعلى سبيل المثال، إذا رغبت في الذهاب في عطلة إلى أوروبا مع عائلتك والتوقف في عدة مدن، وأطفالك يرغبون في قضاء عطلة في فندق بمسبح كبير فيما أنت وزوجتك تريدان فندقاً قريباً من أفضل المطاعم – ففي هذه الحالة بدلاً من قضاء ساعات في البحث عن فنادق تستجيب لهذه المعايير، وتقييم الخيارات، وإجراء الحجز على مواقع مختلفة، يمكن لنظم الذكاء الاصطناعي الفاعل أن تقوم بهذه المهمة نيابة عنك – يبدو الأمر جيداً، أليس كذلك؟
نظريا الأمر فعلاً يبدو رائعاً غير أن التفكير فيه من وجهة نظر باحث يولي اهتماما خاصا لأمن نظم الذكاء الاصطناعي، أعتقد أنه من الصعب التنبؤ بنتائج نظم الذكاء الاصطناعي الفاعل [Agentic AI] وتشغيلها يجب أن يكون بحذر.
تستخدم نظم الذكاء الاصطناعي الفاعل النماذج اللغوية الكبيرة وغيرها من النماذج الأساسية لفهم ما يطلبه المستخدمون. كما تقوم باستخدام النماذج نفسها لتعلم كيفية التفاعل مع نظم أخرى من خلال دراستها — تماما كما نفعل. وتشكل هذه القدرة [أي قدرة AI Agentic] تحدياً كبيراً للنماذج الحديثة، إذ إنها لا تملك الدقة أو الشفافية للتنبؤ بتأثيرات هذه النظم عليها؛ لذا – إلى جانب كفاءة هذه النظم وما توفره من عناء على المستخدمين – أتوقع مواجهتها لمشاكل قد تُخرجها عن السيطرة.
حدوث مثل هذه المشكلات ليس بالأمر المستجد، حيث شهدنا حالات تم فيها إطلاق نظم ذكاء اصطناعي فاعل [Agentic AI] ولم يكن أداؤها كما كان متوقعاً على غرار ما حدث من أعطال لنموذج “Gemini” اللغوي – البصري الذي أطلقته شركة جوجل العام الماضي – وما حدث، فعلا، يجعلنا نخلص إلى أن الأضرار المحتملة الناتجة عن تصميم نظم ذكاء اصطناعي فاعلة [Agentic AI] بشكل غير مدروس هي أكبر بكثير، ولها تأثير مباشر على المستخدم.
تأمين نظم الذكاء الاصطناعي هو أمر صعب بما فيه الكفاية عند التعامل مع أدوات مثل النماذج اللغوية الكبيرة بمدخلاتها ومخرجاتها النصية، وهي نماذج محدودة إلى حد ما – إذا صح التعبير – لكن هامش المخاطر الأمنية المرتبطة بها أو بغيرها من النظم التي لها تأثير حقيقي في عالمنا يصبح أكبر بمجرد ربطها بنظم ذكاء اصطناعي فاعل. سنشهد تقدما مذهلا في مجال الذكاء الاصطناعي الفاعل وإلى جانب هذا التقدم نحن مسؤولون أيضا على إرساء قواعد قادرة على تجنيبنا نتائج كارثية، وفهمنا لكيفية تحقيق هذا الهدف ما تزال محدودة.
إننا على أعتاب الوصول إلى مرحلة نصبح فيها قادرين على التحكم في نظم الذكاء الاصطناعي المتجسد — الروبوتات عموما — باستخدام النماذج اللغوية الكبيرة والنماذج الأساسية. ويشبه هذا التطور، في هذا النطاق، ما يحدث الآن مع الذكاء الاصطناعي الفاعل [Agentic AI]، غير أنه بدلاً من أن توظف هذه الأخيرة النماذج الأساسية للتحكم في النظم الأخرى عبر واجهات برمجة التطبيقات [API]، ستستخدم النماذج الأساسية للتحكم في الأجهزة الفعلية.
عندما يتحدث معظم الناس عن الذكاء الاصطناعي الفاعل، فإنهم يتحدثون عن نظم فاعلة متصلة عبر واجهات برمجة التطبيقات ببرمجيات لنظم مثل أنظمة الحجز للسفر أو الأنظمة المصرفية، غير أن ما يهتم به الدارسون للروبوتات هو تطوير طرق للتحكم في الأجهزة الفعلية عبر واجهات برمجة التطبيقات التي — من الناحية التقنية — لا توجد اختلافات كبيرة بينها، غير أن ما سينتج عنها سيؤدي إلى انهيار الحدود الفاصلة بين ما نصفه بنظم رقمية محضة وتلك التي نعرفها بالنظم المتجسدة.
أنا لا أقول بهذا بأنني أستشرف أن تصبح جميع أجهزتنا قادرة على التواصل في ما بينها، ولكنني أتوقع أن تصبح بين الروبوتات وأنظمة الذكاء الاصطناعي الفاعل علاقة قوية.
أحد التحديات الكبرى التي يواجهها الباحثون في مجال الذكاء الاصطناعي المتجسد هو كيفية الاستفادة من قوانين القياس [Scaling Laws] التي ساهمت في التقدم المذهل للنظم الافتراضية مثل النماذج الأساسية؛ ففي حين أن البيانات المستخدمة لتدريبها — مثل المواد المسموعة، والمكتوبة، والصور، والفيديوهات — تمثل العالم، إلا أنها ليست مرتبطة فعلياً به. ورغم أنه — إلى حد ما — يمكن تدريب الروبوتات باستخدامها، فستحتاج هذه الأخيرة – في مرحلة ما – إلى التصرف في البيئة التي سيتم استخدامها فيها والحصول على مدخلات من العالم الحقيقي.
التحدي لنظم الذكاء الاصطناعي المتجسد ببساطة هو عدم قدرتها على استيعاب كميات هائلة من البيانات الواقعية ومعالجتها في الوقت نفسه لأنه لا يمكن تسريع الوقت في العالم الحقيقي بما يسهم في تعلم هذه النظم، مقارنة مع البيئات الافتراضية حيث يمكن أن يتم هذا التدريب والاختبار وفق السرعة التي يتحرك بها هذا الأخير.
مرجح أن نشهد، في هذا الاتجاه، ابتكارات تعالج هذه المشكلة في العام القادم حيث إن أخذ البيانات على نطاق واسع عبر الأجهزة المستقلة يمكن أن يوفر معلومات حول كيفية تفاعل الآلات مع بيئاتها، مما يوفر مواد تعليمية (تدريبية) صحيحة للروبوتات تمكنها من أداء مهام محددة – والأهم من ذلك، يمكن أن توفر هذه الطريقة للآلات فهماً عاماً حول كيفية التصرف، وهذا النوع من القابلية للتعميم المعرفي ضرورية لأنه بمجرد ما أن تبدأ الروبوتات بالعمل في العالم الحقيقي، ستواجه باستمرار مواقف وبيئات لم يسبق أن تدربت عليها.
يمكننا، في هذا الصدد، أن نتخيل سيناريو يحتاج فيه الروبوت إلى التقاط حبة فراولة على الرغم من أنه لم يرَ واحدة من قبل، فسيقوم الروبوت بالاسترشاد بالمعرفة العامة التي لديه عن الإمساك بالأشياء المختلفة وإجراء تقييم سريع حول مدى قوة الإمساك بالفاكهة دون سحقها، وهذا النوع من القابلية للتعميم المعرفي هو شرط أساسي بمجرد أن تنتقل نظم الذكاء الاصطناعي المتجسد من البيئات المتحكم فيها مثل المصانع والمستودعات إلى العالم الحقيقي.
ويشكل هذا المبحث مجالاً بحثياً جديراً بالاهتمام لأن القابلية للتعميم المعرفي هي مشكلة قائمة في مجال الذكاء الاصطناعي ككل وتتطلب فهماً من الباحثين في مجالات متنوعة مثل معالجة اللغة الطبيعية، والرؤية الحاسوبية، والتفاعل بين الإنسان والحاسوب. كما أن هذا المبحث قادر على إحداث تغيير حقيقي في العالم.
كُرِّم العام الماضي كل من ديميس هسابيس وجون جامبر من Google DeepMind بجائزة نوبل للكيمياء عن نظام AlphaFold2 الذي يستنتج هيكلية البروتينات بناءً على تسلسل الأحماض الأمينية فيها. وقد شكل تحقيق هذا الإنجاز تطوراً كبيراً في علوم الحياة الذي ستكون له آثار على البحث العلمي لعقود قادمة. وأتوقع، هذا العام، أن نرى تطورات أخرى كبيرة في علوم الحياة تتجاوز ما نجح هسابيس وجامبر في تحقيقه.
كما سيشهد علم المعلومات الحيوية تحولاً كبيرا بالذكاء الاصطناعي الذي سيعزز سرعة عملية النمذجة ودقتها مما سيساعد العلماء ويسهل عليهم وضع استنتاجات عن العمليات البيولوجية بشكل أسرع وأكثر دقة، وبالتالي إمكانية تقليل الوقت الذي يستغرقه تطوير العلاجات والأدوية الجديدة — مع العلم أنه عادة ما يستغرق الأمر سنوات لتطوير الأدوية اعتماداً على التجارب السريرية.
سنرى أيضاً توسعاً في نطاق أنواع المهام التي ستقوم بها نماذج الذكاء الاصطناعي في مجال علوم الحياة – ففي الوقت الذي يعد فيه استنتاج هيكلية البروتين أمرا بالغ الأهمية للعلماء، فهو يبقى أمراً محدداً وأتوقع تطوير نماذج جديدة يتم تدريبها باستخدام بيانات بيولوجية من مستويات متعددة بما فيها البيانات الجينومية والبروتيومية، وصولاً إلى “التكديس البيولوجي”.
ستُستخدم هذه النظم لمحاكاة الأعضاء أو حتى الكائنات الحية وسيكون لها تأثير هائل. وقد بدأ بالفعل هذا العمل حيث نَشر مؤخراً رئيس جامعة محمد بن زايد للذكاء الاصطناعي والبروفيسور الجامعي إريك زينغ إلى جانب باحثين آخرين من الجامعة دراسة تقترح طريقة جديدة لنمذجة علم الأحياء من خلال شبكة من النماذج الأساسية المتكاملة – وقد تم إلقاء الضوء على هذا البحث في مجلة The Atlantic.
رغم أن استخدام الذكاء الاصطناعي وعلوم البيانات كان منذ فترة طويلة في علوم الحياة، فإننا اليوم على أبواب تطورات كبرى ومهمة جدا؛ وأتوقع تزايد مستويات الاعتماد على الذكاء الاصطناعي في الكيمياء وفي تطوير النظريات الرياضية الجديدة وإثباتاتها. كما أنني لا أعتقد أن الذكاء الاصطناعي سينجح لوحده في تحقيق أي اختراقات علمية من دون مدخلات الإنسان لكنه سيسهم في تسريع الاكتشافات العلمية التي لن تكون من دون وجود علماء.
قامت شركات التكنولوجيا الكبرى باستثمارات ضخمة في الذكاء الاصطناعي على مدى العقد الماضي، مما مكنها من استقطاب بعض من أفضل المواهب البحثية، غير أن هاته المواهب التي تعمل لصالح أكبر شركات التكنولوجيا في العالم مقيدة من حيث ما يمكنها مشاركته بشأن أبحاثها. كما أنه من المعلوم أن شركات التكنولوجيا الكبرى هي في الغالب شركات مغلقة وعملها البحثي محاط بالسرية.
وهناك بالطبع سبب لهذا، حيث تحتاج الشركات إلى حماية ملكيتها الفكرية للحفاظ على تفوقها في السوق، وفي مجال البرمجيات يتم هذا غالباً من خلال حماية تفاصيل الهندسة البرمجية. لكنني أتوقع انتقالا كبيرا لهؤلاء الباحثين من القطاعات الصناعية حيث سيرى أعداد متزايد منهم في الطبيعة السرية لهذه الشركات على أنها أمر مزعج – بصرف النظر عن الحوافز المالية الكبيرة التي يتلقونها.
هناك أيضاً العديد من الباحثين الذين لا يريدون أن يكونوا مجرد اسم آخر بين الآلاف في فريق ضخم، وعدم القدرة على إلقاء الضوء على إسهاماتهم البحثية، ومعظم الكوادر العليا التي تحدوها رغبة في أن يكون لاسمها حضورا في الأوساط البحثية يلجؤون إلى متابعة دراستهم العليا في برامج تؤهلهم للحصول على درجة الدكتوراه وتمكنهم – بالتالي – من التواصل المباشر مع مجتمع البحث والتبادل المفتوح للأفكار والنتائج. وأعتقد أن الكثير يشعر بنوع من القيود المفروضة على تواصلهم مع المجتمع العلمي وفقدان الرضا الذاتي المتمثل في رؤية الآخرين يستخدمون أفكارهم ويبنون عليها.
وبصفتنا علماء، فإننا نرى دائماً بأننا نقف على أكتاف الآخرين، وتوفر الجامعات ومؤسسات البحث الأخرى منظومات يُمْكِن من خلالها التواصل مع الزملاء ونشر الأوراق البحثية دون قيود وتطوير نماذج للذكاء الاصطناعي وإطلاقها. وتعد جامعة محمد بن زايد للذكاء الاصطناعي، في هذا الإطار، واحدة من أكثر الجامعات جاذبية لكبار الباحثين في مجال الذكاء الاصطناعي في العالم.
وبالتوازي مع هذا، نشهد بالفعل المزيد من الشركات الناشئة الصغيرة والمتوسطة الحجم التي تعمل على نماذج مفتوحة تنافس نماذج شركات الذكاء الاصطناعي الرائدة في الولايات المتحدة في مهام محددة. وقد لا تتنافس هذه الشركات بشكل مباشر مع أكبر الشركات، لكن باحثيها يمكنهم إطلاع العالم عن عملهم، والتواصل بشكل مباشر مع المستخدمين والتعلم من تجاربهم.
بشكل عام، أعتقد أننا سنرى المزيد من التركيز على تعزيز قدرات الذكاء الاصطناعي التي تقف وراءها استثمارات حكومات دول بهدف ضمان عدم خضوعها [الدول] لشركات التكنولوجيا الكبرى في العالم. كما سنشهد خلال هذا العام تطوير أجهزة جديدة وأفضل، بما في ذلك وحدات معالجة الرسوميات، تنتجها شركات صغيرة. وسنرى أيضاً نماذج أكثر قوة وتخصصا مدربة على هذه الأجهزة الجديدة.
في مجال الذكاء الاصطناعي، كما هو الحال في الحياة، فإن الشيء الوحيد الثابت هو التغيير. لقد رأينا في غضون أسابيع قليلة أن عام 2025 في طريقه إلى أن يكون عاماً مهماً للذكاء الاصطناعي، وإنني واثق من أن هذا الاتجاه سيستمر بوتيرة سريعة طوال العام.
بعد نجاحه في تطوير أدوات مدعومة بالذكاء الاصطناعي تساعد في الكشف عن المعلومات المضللة والخاطئة، يركز زين.....
اقرأ المزيدالدكتور فخري كراي يسهم في تطوير نموذج إحصائي جديد قد يساعد في تحسين مستويات الاستدامة وجودة النظم.....
رئيس جامعة محمد بن زايد للذكاء الاصطناعي والبروفيسور الجامعي إيرك زينغ، يعلن خلال فعالية نظمتها الجامعة تحت.....