مما لا شك فيه أن الإنسان يستفيد، من حول العالَم، من الرعاية الشخصية التي يتلقاها، إلا أنه يستفيد أيضًا من عمل أنظمة الصحة العامة التي توفر معلومات على مستوى السكان ذات صلة وثيقة بالعلاج الشخصي. في هذا السياق، يُسهّل الباحثون في مجال الذكاء الاصطناعي هذه المهمة ويُتيحون المشاركة الآمنة للمعلومات مع الحفاظ على الخصوصية باستخدام بعض الأدوات مثل التعلّم المتحد.
إذ تساعدنا مشاركة المعلومات الصحية مجهولة المصدر على الاستفادة من تجارب الملايين من البشر ونجاحاتهم وإخفاقاتهم، كما تساعد الأطباء على جعل العلاجات المثبَتة والتهديدات الناشئة على صحتنا تصبح قابلة للملاحظة بشكل أكبر وأسرع وأسهل. لكن لا يشعر الجميع بمسؤولية التعامل مع مثل هذه الأنظمة من أجل تحقيق مصلحة البشرية.
بناء عليه، لا بد أن يؤمّن مديرو أنظمة الذكاء الاصطناعي الحماية من القرصنة التي تشكّل تهديداً مستمراً، لكن لسوء الحظ، عليهم أيضاً محاربة الجهات الفاعلة السيئة داخل النظام التي تسعى إلى تشويه نتائج بياناتهم. وسواء كان تحريف البيانات ضاراً أم لا، فهو يقوّض العمل الذي ينوي الباحثون القيام به.
في هذا الإطار، يهدف البحث الذي أجراه فريق من جامعة محمد بن زايد للذكاء الاصطناعي وجامعة الملك عبدالله للعلوم والتقنية ومعهد “ميلا” إلى مساعدة المديرين في تحديد الجهات الفاعلة السيئة وتقليل التأثيرات السلبية على النتائج إلى أقصى حدٍ ممكن. ويوضح ما وجده هذا الفريق حالة أنظمة مشاركة المعلومات، وكيف يمكن أن يحمي مديرو هذه الأنظمة الرؤى المهمة التي يَعِد الذكاء الاصطناعي بتقديمها في المجال الصحي.
في أنظمة التعلّم المتحد، يصمم المدير المركزي خوارزميات تستخدم البيانات الموجودة على أجهزتنا، ويشغّل عمليات الحوسبة، ثم يرسل النتائج مجهولة المصدر والمشفرة الخاصة بتلك البيانات إلى مستودع مركزي. وهذا النوع من الأنظمة هو الطريقة التي نعتمدها لجمع مجموعات قيّمة كبيرة من المعلومات الصحية وتحليلها، ولاستخدامها بشكل آمن وأخلاقي في الأنظمة الصحية الحديثة المبنية على الذكاء الاصطناعي. وهذه هي الطريقة التي يستخدمها العلماء مثلاً لحشر مئات الملايين من نقاط البيانات حول علاج السرطان في مجموعة من الرؤى والتوصيات التي قد تُنقذ الأرواح.
يعمل سامويل هورفاث، الأستاذ المساعد في قسم تعلّم الآلة، وإدوارد غوربينوف، الزميل في بحوث ما بعد الدكتوراه في جامعة محمد بن زايد للذكاء الاصطناعي على فهم هذه الأنظمة بشكل أفضل وتحسينها وحمايتها من الجهات الفاعلة التي قد تضر بالبيانات. وسيقوم مديرو أي نظام مشابه على نحو منتظم بتحديث الخوارزمية، وتدريب شبكة الأجهزة (بما فيها هاتفك) على أحدث نسخة التي ستحوّل بياناتك إلى رؤًى وتُنقذ الأرواح. لكن لسوء الحظ، لا يتحلى الجميع بالصدق مثلك.
يقول هورفاث: “سيرسل بعض المستخدمين معلومات سيئة، أو حتى هجمات. وهُم لا يحاولون حتى بالضرورة تدمير النموذج، لكن الطريقة التي يحرّفون بها البيانات قد تخرّب النتائج التي تقوم عليها إلى حد كبير”.
تمت الموافقة في المؤتمر الدولي حول تمثيلات التعلم لعام 2023 على ورقة بحثية أعدّها غوربينوف وهورفات، إلى جانب مؤلفَين مشاركَين هما بيتر ريشتاريك، أستاذ علم الحاسوب في جامعة الملك عبد الله للعلوم والتقنية، وغوتييه جيديل، الأستاذ المساعد في جامعة مونتريال والعضو الأساسي في الهيئة التدريسية في معهد “ميلا”. وتحمل هذه الورقة عنوان: “تخفيف التباين هو الحل لفشل أمن النظام: معدلات أفضل، وافتراضات أضعف، وعلى رأس ذلك ضغط الاتصالات“.
وجد الفريق أن التصدي للفشل في أمن النظام غالباً ما يؤدي إلى تخريب البيانات أكثر من عدم اتخاذ أي إجراءات للحد منه. استجابة لذلك، يقترح غوربينوف والمؤلفون الآخرون طريقة جديدة تحتمل هذا الفشل وتساعد على تثبيت التدريب وزيادة السرعة، مع التفوق على المعايير.
في النهاية، يقترح الفريق حلاً جديراً بالتنفيذ لأنه يحسّن النتائج، إلى جانب فعاليته ضد مختلف أشكال الهجمات. والجدير بالذكر غياب أي “تكلفة” مرتبطة باستخدام استراتيجية التخفيف التي اعتمدها الفريق، وغياب أي “ثمن” مقابل هذا التحسين أو أي فقدان للسرعة.
يحتفي العالم في 18 ديسمبر من كل عام باليوم العالمي للغة الضاد في لفتَتٍ يقف فيها العالم.....
فريق بحثي من جامعة محمد بن زايد للذكاء الاصطناعي وجامعة موناش يبحث في مدى قدرة النماذج اللغوية.....
اقرأ المزيدفريق بحثي من جامعة محمد بن زايد للذكاء الاصطناعي يفوز بجائزة تقديرية عن دراسة بحثية تشجع الباحثين.....