الرياض (پاکستان پوائنٹ نیوز 15 اكتوبر 2025ء) استضاف المركز الدولي لأبحاث وأخلاقيات الذكاء الاصطناعي (ICAIRE)، برعاية منظمة الأمم المتحدة للتربية والعلم والثقافة (اليونسكو)، بالرياض، لقاءً دوليًا متخصصًا بعنوان "إدارة المخاطر في هلوسة النماذج اللغوية"، بحضور ومشاركة عدد من الخبراء الدوليين المختصين في مجال تقنيات الذكاء الاصطناعي من مختلف دول العالم.
وتناول الخبراء موضوعات المخاطر التقنية المرتبطة بظاهرة "الهلوسة" في النماذج اللغوية الضخمة (LLMs)، التي تمثل تقدمًا رائدًا في مجال الذكاء الاصطناعي، وصممت لمعالجة اللغة البشرية وتوليدها، كما استعرضوا الأساليب الحديثة للتنبؤ بها قبل حدوثها، وإستراتيجيات الحدّ من تأثيرها على موثوقية المخرجات في الأنظمة الواقعية.
وتُعرَّف الهلوسة في النماذج اللغوية بأنها "محتوى مُولَّد يبدو واقعيًا ولكنه لا أساس له"، وينطبق على اللغات والصور والفيديوهات، ووجد الخبراء طرقًا مختلفة لتصنيف الهلوسة بناءً على ما إذا كان الناتج يتعارض مع المصدر أو لا يمكن التحقق منه من المصدر.
وقدم الدكتور Leon Chlon، مؤسس شركة Hassana Labs والمتخصص في موثوقية نماذج الذكاء الاصطناعي (AI Reliability)، عرضًا علميًا عن طرق قياس موثوقية النماذج والتقنيات المستخدمة للحد من ظاهرة الهلوسة في الأنظمة التوليدية، إلى جانب استعراض دراسات حالة واقعية توضح كيفية تعزيز جودة المخرجات باستخدام آليات RAG وتقنيات المراقبة المستمرة للنماذج.
وتطرّق الخبراء إلى عدة محاور متقدمة، من أبرزها: قياس الموثوقية قبل تحسينها، وتقدير المخاطر المسبقة دون تدريب إضافي، وحماية الأنظمة الواقعية باستخدام آليات الاسترجاع المعزز بالمصادر (RAG)، إضافةً إلى عرض دراسات حالة وخطط تنفيذية لتعزيز ممارسات الأمان في النماذج التوليدية.
ويأتي تنظيم هذا اللقاء ضمن جهود المركز في تعزيز الأبحاث والممارسات المتعلقة بأخلاقيات الذكاء الاصطناعي وتطوير سياسات الاستخدام الآمن والمسؤول للتقنيات الحديثة، بما يسهم في دعم أهداف التنمية المستدامة للأمم المتحدة 2030، ويمكن الاطلاع على مزيد من المعلومات حول المركز ومبادراته عبر زيارة الرابط التالي: https://x.com/icaire_ai?s=21.