آخر الأخبار
هل تفهمنا نماذج اللغة الكبيرة فعلاً؟ الحقيقة وراء ذكاء ChatGPT وأمثاله

تخيل أنك تدخل امتحان تاريخ دون أي تحضير مسبق، وتعتمد فقط على حدسك وما تتذكره بشكل غير مؤكد. ترى الرقم “1776” فتربطه سريعاً باستقلال الولايات المتحدة، وعند رؤية “1969” تفكر فوراً في هبوط الإنسان على سطح القمر. هذا النوع من التخمين المبني على الأنماط السطحية هو بالضبط ما تقوم به نماذج اللغة الكبيرة (LLMs) مثل ChatGPT. ورغم قدرتها الهائلة على صياغة الجمل والإجابة بطلاقة، إلا أن ما تقوم به لا يُشبه التفكير أو الفهم الحقيقي، بل هو في جوهره “تنبؤ إحصائي” بالكلمة التالية.
هذه الحقيقة تفسر لنا جانباً من القوة الهائلة لهذه النماذج، لكنها في الوقت نفسه تسلط الضوء على حدودها الجوهرية. وهنا يبرز السؤال الأهم: إذا كانت هذه النماذج بهذا الذكاء الظاهري، فلماذا تستمر في ارتكاب الأخطاء، أو في “هلوسة” معلومات خاطئة، أو حتى في إظهار تحيّزات لا تُغتفر أحياناً؟
لفهم ذلك، نحتاج إلى نظرة أعمق على كيفية تدريب هذه النماذج وكيفية عملها، كما أوضحت منصة “Interesting Engineering”.
كيف تتعلم نماذج اللغة؟
في البداية، تُجزّأ اللغة إلى وحدات صغيرة تُعرف بـ”الرموز” (tokens)، مثل “walk” و”ing”، بحيث يمكن لكل رمز أن يمثل جزءاً من كلمة أو كلمة كاملة. تُخصَّص لكل رمز قيمة عددية داخل شبكة عصبية ضخمة، وهي شبكة مكونة من طبقات متعددة من العُقد الحسابية التي تحاكي وظائف الدماغ البشري.
خلال عملية التدريب، تُضخ كميات هائلة من النصوص في النموذج، ويُطلب منه التنبؤ بالكلمة التالية. عندما يخطئ النموذج، يتم تعديل “الأوزان” التي تتحكم في كيفية معالجة الرموز، بحيث يقل الخطأ في التنبؤ في المرات التالية. هذه العملية تتكرر ملايين أو مليارات المرات، ما يجعل النموذج قادراً على التقاط أنماط لغوية معقدة.
لكن هنا تكمن المعضلة: النموذج لا “يفهم” المعلومات كما يفعل البشر، بل يحاكي ما يبدو أنه “معلومة صحيحة” فقط لأنه رآها كثيراً أثناء تدريبه.
لماذا ترتكب هذه النماذج أخطاء أو تهلوس؟
السبب الأساسي أن هذه النماذج تعتمد على “التخمين المُستند إلى الأنماط”، وليس على المعرفة الحقيقية أو الفهم العميق. لذا، فهي معرضة لما يُعرف بـ”الهلوسة” أي اختراع معلومات تبدو منطقية لكنها غير صحيحة إطلاقاً. قد تكتب مرجعاً أكاديمياً غير موجود، أو تسرد معلومة تاريخية خاطئة بكل ثقة.
هذه الأخطاء ليست أكاذيب متعمدة، بل نتيجة طبيعية لافتقار النموذج إلى الحس بالواقع أو القدرة على التحقق من المعلومات. في حالات معينة، تكون هذه الأخطاء طفيفة، لكن في مجالات حساسة مثل القانون أو الطب، قد تكون العواقب كارثية.
التحيزات والمعلومات القديمة: نقاط ضعف مقلقة
تعتمد النماذج على البيانات التي تُجمع من الإنترنت، والتي تعكس في كثير من الأحيان تحيّزات المجتمع البشري، مثل التحيّزات الجندرية أو العرقية أو السياسية. وبالتالي، يمكن للنموذج أن يُعيد إنتاج هذه التحيزات دون وعي أو نية سيئة.
علاوة على ذلك، فإن “معرفة” النموذج تكون محدودة بوقت تدريبه. فإذا طرأت تغييرات جوهرية في العالم بعد آخر تحديث للنموذج، فإنه سيظل يعتمد على “حقيقته” التي أصبحت قديمة. هذا يسبب مشكلات كبيرة في المواضيع المتغيرة مثل القوانين، التطورات التقنية، أو حتى الكوارث والأزمات.
لماذا يصعب إصلاح هذه المشكلات؟
رغم الجهود الضخمة المبذولة لتحسين أداء هذه النماذج، إلا أن التحديات التقنية والبشرية تجعل من عملية التصحيح أمراً بالغ الصعوبة:
- تكلفة تدريب النماذج: يتطلب تدريب نموذج جديد على بيانات محدثة موارد هائلة — من الوقت إلى الطاقة إلى البنية التحتية الحاسوبية المتطورة.
- غموض الصندوق الأسود: لا يمكن تفسير قرارات النموذج بسهولة. فحتى مطوريه أنفسهم لا يمكنهم دائماً تحديد السبب الذي دفعه لتوليد استجابة معينة.
- محدودية التدقيق البشري: من غير الواقعي فحص كل إجابة يصدرها الذكاء الاصطناعي، خصوصاً عند استخدامه على نطاق واسع في آلاف التطبيقات.
محاولات لإصلاح الخلل: حلول تقنية وتنظيمية
رغم كل هذه التحديات، هناك جهود كبيرة تبذل لتحسين أداء النماذج وتخفيف أضرارها المحتملة:
- التعلّم المعزز بالتغذية الراجعة البشرية (RLHF): حيث يقيّم البشر نتائج النموذج ويعطون ملاحظات تساعد على تحسين الأداء المستقبلي.
- الذكاء الاصطناعي الدستوري: كما في نموذج Claude من شركة Anthropic، حيث يتم تدريب النموذج على الالتزام بمبادئ أخلاقية محددة.
- مبادرة Superalignment من OpenAI: وتهدف إلى تطوير نماذج ذكاء اصطناعي تتماشى تلقائياً مع القيم الإنسانية دون الحاجة إلى إشراف بشري دائم.
- تشريعات وقوانين صارمة: مثل قانون الذكاء الاصطناعي في الاتحاد الأوروبي، الذي يُجبر الشركات على الالتزام بمعايير أمان صارمة عند استخدام الذكاء الاصطناعي في مجالات عالية الخطورة.
ما هو دور المستخدم؟ ولماذا لا يمكننا الاعتماد كلياً على الذكاء الاصطناعي؟
في نهاية المطاف، تظل نماذج اللغة أدوات قوية لكنها محدودة. لا يمكن معاملتها ككيانات واعية أو موثوقة بالكامل. لذا، تقع مسؤولية مراجعة المحتوى الذي تنتجه على عاتق البشر، خاصةً في المجالات التي تتطلب دقة ومصداقية عالية مثل الطب، القانون، التعليم، والإعلام.
الذكاء الاصطناعي ليس بديلاً للعقل البشري، بل هو امتداد له أداة تسهّل، تُسرّع، وتدعم، لكنها لا تُفكر ولا تتحقق من تلقاء نفسها. ولأن الخطأ الذي يصدر عنه قد يبدو مقنعاً، فإن الوعي البشري هو خط الدفاع الأخير.