Logo
نصلك بمستقبل التكنولوجيا

اشترك الآن

لآخر التحديثات

آخر الأخبار

هل تفهمنا نماذج اللغة الكبيرة فعلاً؟ الحقيقة وراء ذكاء ChatGPT وأمثاله

منذ ١٤ يومًا
سوالف تك

img

تخيل أنك تدخل امتحان تاريخ دون أي تحضير مسبق، وتعتمد فقط على حدسك وما تتذكره بشكل غير مؤكد. ترى الرقم “1776” فتربطه سريعاً باستقلال الولايات المتحدة، وعند رؤية “1969” تفكر فوراً في هبوط الإنسان على سطح القمر. هذا النوع من التخمين المبني على الأنماط السطحية هو بالضبط ما تقوم به نماذج اللغة الكبيرة (LLMs) مثل ChatGPT. ورغم قدرتها الهائلة على صياغة الجمل والإجابة بطلاقة، إلا أن ما تقوم به لا يُشبه التفكير أو الفهم الحقيقي، بل هو في جوهره “تنبؤ إحصائي” بالكلمة التالية.

هذه الحقيقة تفسر لنا جانباً من القوة الهائلة لهذه النماذج، لكنها في الوقت نفسه تسلط الضوء على حدودها الجوهرية. وهنا يبرز السؤال الأهم: إذا كانت هذه النماذج بهذا الذكاء الظاهري، فلماذا تستمر في ارتكاب الأخطاء، أو في “هلوسة” معلومات خاطئة، أو حتى في إظهار تحيّزات لا تُغتفر أحياناً؟

لفهم ذلك، نحتاج إلى نظرة أعمق على كيفية تدريب هذه النماذج وكيفية عملها، كما أوضحت منصة “Interesting Engineering”.

كيف تتعلم نماذج اللغة؟

في البداية، تُجزّأ اللغة إلى وحدات صغيرة تُعرف بـ”الرموز” (tokens)، مثل “walk” و”ing”، بحيث يمكن لكل رمز أن يمثل جزءاً من كلمة أو كلمة كاملة. تُخصَّص لكل رمز قيمة عددية داخل شبكة عصبية ضخمة، وهي شبكة مكونة من طبقات متعددة من العُقد الحسابية التي تحاكي وظائف الدماغ البشري.

خلال عملية التدريب، تُضخ كميات هائلة من النصوص في النموذج، ويُطلب منه التنبؤ بالكلمة التالية. عندما يخطئ النموذج، يتم تعديل “الأوزان” التي تتحكم في كيفية معالجة الرموز، بحيث يقل الخطأ في التنبؤ في المرات التالية. هذه العملية تتكرر ملايين أو مليارات المرات، ما يجعل النموذج قادراً على التقاط أنماط لغوية معقدة.

لكن هنا تكمن المعضلة: النموذج لا “يفهم” المعلومات كما يفعل البشر، بل يحاكي ما يبدو أنه “معلومة صحيحة” فقط لأنه رآها كثيراً أثناء تدريبه.

لماذا ترتكب هذه النماذج أخطاء أو تهلوس؟

السبب الأساسي أن هذه النماذج تعتمد على “التخمين المُستند إلى الأنماط”، وليس على المعرفة الحقيقية أو الفهم العميق. لذا، فهي معرضة لما يُعرف بـ”الهلوسة”  أي اختراع معلومات تبدو منطقية لكنها غير صحيحة إطلاقاً. قد تكتب مرجعاً أكاديمياً غير موجود، أو تسرد معلومة تاريخية خاطئة بكل ثقة.

هذه الأخطاء ليست أكاذيب متعمدة، بل نتيجة طبيعية لافتقار النموذج إلى الحس بالواقع أو القدرة على التحقق من المعلومات. في حالات معينة، تكون هذه الأخطاء طفيفة، لكن في مجالات حساسة مثل القانون أو الطب، قد تكون العواقب كارثية.

التحيزات والمعلومات القديمة: نقاط ضعف مقلقة

تعتمد النماذج على البيانات التي تُجمع من الإنترنت، والتي تعكس في كثير من الأحيان تحيّزات المجتمع البشري، مثل التحيّزات الجندرية أو العرقية أو السياسية. وبالتالي، يمكن للنموذج أن يُعيد إنتاج هذه التحيزات دون وعي أو نية سيئة.

علاوة على ذلك، فإن “معرفة” النموذج تكون محدودة بوقت تدريبه. فإذا طرأت تغييرات جوهرية في العالم بعد آخر تحديث للنموذج، فإنه سيظل يعتمد على “حقيقته” التي أصبحت قديمة. هذا يسبب مشكلات كبيرة في المواضيع المتغيرة مثل القوانين، التطورات التقنية، أو حتى الكوارث والأزمات.

لماذا يصعب إصلاح هذه المشكلات؟

رغم الجهود الضخمة المبذولة لتحسين أداء هذه النماذج، إلا أن التحديات التقنية والبشرية تجعل من عملية التصحيح أمراً بالغ الصعوبة:

  1. تكلفة تدريب النماذج: يتطلب تدريب نموذج جديد على بيانات محدثة موارد هائلة — من الوقت إلى الطاقة إلى البنية التحتية الحاسوبية المتطورة.
  2. غموض الصندوق الأسود: لا يمكن تفسير قرارات النموذج بسهولة. فحتى مطوريه أنفسهم لا يمكنهم دائماً تحديد السبب الذي دفعه لتوليد استجابة معينة.
  3. محدودية التدقيق البشري: من غير الواقعي فحص كل إجابة يصدرها الذكاء الاصطناعي، خصوصاً عند استخدامه على نطاق واسع في آلاف التطبيقات.

محاولات لإصلاح الخلل: حلول تقنية وتنظيمية

رغم كل هذه التحديات، هناك جهود كبيرة تبذل لتحسين أداء النماذج وتخفيف أضرارها المحتملة:

  • التعلّم المعزز بالتغذية الراجعة البشرية (RLHF): حيث يقيّم البشر نتائج النموذج ويعطون ملاحظات تساعد على تحسين الأداء المستقبلي.
  • الذكاء الاصطناعي الدستوري: كما في نموذج Claude من شركة Anthropic، حيث يتم تدريب النموذج على الالتزام بمبادئ أخلاقية محددة.
  • مبادرة Superalignment من OpenAI: وتهدف إلى تطوير نماذج ذكاء اصطناعي تتماشى تلقائياً مع القيم الإنسانية دون الحاجة إلى إشراف بشري دائم.
  • تشريعات وقوانين صارمة: مثل قانون الذكاء الاصطناعي في الاتحاد الأوروبي، الذي يُجبر الشركات على الالتزام بمعايير أمان صارمة عند استخدام الذكاء الاصطناعي في مجالات عالية الخطورة.

ما هو دور المستخدم؟ ولماذا لا يمكننا الاعتماد كلياً على الذكاء الاصطناعي؟

في نهاية المطاف، تظل نماذج اللغة أدوات قوية لكنها محدودة. لا يمكن معاملتها ككيانات واعية أو موثوقة بالكامل. لذا، تقع مسؤولية مراجعة المحتوى الذي تنتجه على عاتق البشر، خاصةً في المجالات التي تتطلب دقة ومصداقية عالية مثل الطب، القانون، التعليم، والإعلام.

الذكاء الاصطناعي ليس بديلاً للعقل البشري، بل هو امتداد له  أداة تسهّل، تُسرّع، وتدعم، لكنها لا تُفكر ولا تتحقق من تلقاء نفسها. ولأن الخطأ الذي يصدر عنه قد يبدو مقنعاً، فإن الوعي البشري هو خط الدفاع الأخير.



آخر الأخبار
img
“بروبرتي فايندر” تُحدث نقلة نوعية في سوق العقارات الرقمية بمنطقة الشرق الأوسط
منذ يومين
سوالف تك
img
مكتب أبوظبي للاستثمار يتعاون مع “إي آند إنتربرايز” لتسريع التحوّل الرقمي في القطاع الصناعي في إمارة أبوظبي
منذ يومين
سوالف تك
img
سعادة المهندس مروان بن غليطه يزور منشأة “تدوير” للاطلاع على أحدث ممارسات إدارة النفايات في دبي
منذ يومين
سوالف تك
img
وزارة الصناعة والتكنولوجيا المتقدمة وصندوق الإمارات للنمو يوقعان مذكرة تفاهم استراتيجية لتعزيز نمو القطاع الصناعي الوطني
منذ يومين
سوالف تك
img
الصناعة والتكنولوجيا المتقدمة ومصرف الإمارات للتنمية يطلقان “مسرع اصنع في الإمارات” الأول من نوعه لدعم ريادة الأعمال في القطاع الصناعي
منذ يومين
سوالف تك
img
خلال مشاركتها بمعرض سيملس الشرق الأوسط 2025 “مُزن” تكشف النقاب عن وكيل ذكاء اصطناعي متطور وحلول مبتكرة لمكافحة الجرائم المالية عبر منصة “فوكال”
منذ يومين
سوالف تك
img
جوجل تطلق Imagen 4: قفزة نوعية في توليد الصور بالذكاء الاصطناعي.
منذ يومين
سوالف تك
img
إيلون ماسك يؤكد التزامه بقيادة تسلا لخمسة أعوام مقبلة 
منذ يومين
سوالف تك
img
الهاتف الشفاف الذي حيّر الملايين على “تيك توك”: هل هو ابتكار ثوري أم خدعة بصرية؟
منذ يومين
سوالف تك
img
Google تطلق NotebookLM: مساعد الذكاء الاصطناعي الجديد مجانًا للجميع
منذ يومين
سوالف تك
img
هواوي تكشف عن MateBook Fold، أول حاسوب قابل للطي
منذ يومين
سوالف تك
img
لا مزيد من حواجز اللغة: دبلجة صوتية فورية مدعومة بالذكاء الاصطناعي في Google Meet
منذ يومين
سوالف تك
img
آبل تعزز دعم الخط العربي في iPadOS 19 لتجربة أكثر سلاسة
منذ يومين
سوالف تك
img
أكثر من خُمس مستخدمي الإنترنت في السعودية يعتمدون على الذكاء الاصطناعي
منذ يومين
سوالف تك
img
جوجل Flow: أداة فيديو مبتكرة بالذكاء الاصطناعي، تطلقها جوجل في I/O 2025، لتبسيط إنشاء المقاطع القصيرة المدعومة 
منذ يومين
سوالف تك
النشرة الإلكترونية

ابقى على اطلاع بآخر التحديثات في المواضيع التي تهمك

EmailIcon
2025 @ حقوق الملكية محفوظة لسوالف تِك
SawaliftechLogo