خلل ب Chat GPT يجعله يعطي اجوبة غير مفهومة

خلل ب Chat GPT  يجعله يعطي اجوبة غير مفهومة

تسبب خلل بخوارزمية مساعد الذكاء الاصطناعي الشهير Chat GPT  في جعله يعطي اجوبة غير مفهومة لأسئلة المستخدمين لمدة وصلت الى ساعات.

تحديدا في يوم الثلاثاء لاحظ مستخدمين مساعد الذكاء الاصطناعي Chat GPT  انه عند استخدامهم للمساعد واعطائه بعض الاسئلة للاجابة عليها كما هي المعتاد يقوم البرنامج بتوليد اجابات غير مفهومة وليس لها علاقة بالاسئلة التي تم طرحها.

ورأى العديد من الخبراء في هذه الحادثة تذكيرا كبيرا بأن برغم التطور الكبير الحادث في قطاع مساعد الذكاء الاصطناعي التوليدي الا انه يظل برنامج كمبيوتر لا يمكنه فعليا فهم البشر.

وأفادت شركة "أوبن إيه آي" OpenAI الناشئة على موقعها صباح الأربعاء بأن برنامج "تشات جي بي تي" الذي أطلقته في نهاية عام 2022 عاد يعمل "بشكل طبيعي".

وفي وقت لاحق من بعد الظهر، نشرت الشركة بياناً مقتضباً يشرح الخلل المعلوماتي وراء المشكلة التي حصلت بعد عملية تحديث.

ورد "تشات جي بي تي" مثلاً على سؤال لمستخدم يدعى "سكوت.إيسكريدج" scott.eskridge على النحو الآتي غير المفهوم: "المال للبت والقائمة هو أحد الغرباء والإنترنت حيث العملة وشخص التكلفة هو أحد الأصدقاء والعملة.

في المرة المقبلة التي تنظر فيها إلى النظام والتبادل والواقع، لا تنسَ أن تعطي".

وعلى منتدى المطورين الذين يستخدمون أدوات "أوبن إيه آي"، اشتكى هذا المستخدم الثلاثاء من أن كل محادثاته مع البرنامج "سرعان ما تتحول إلى هراء منذ ثلاث ساعات".

وأوضحت "أوبن إيه آي" يوم الأربعاء أن "عملية تحسين لتجربة المستخدم" أدت "إلى خطأ في الطريقة التي يعالج بها البرنامج اللغة".

وشرحت الشركة أن "النماذج اللغوية تولّد استجابات عن طريق أخذ عينات عشوائية من الكلمات، وتستند جزئياً إلى الاحتمالات".

وأوردت الشركة لاحقاً المزيد من التفاصيل الفنية، معلنةً "حلّ" المشكلة بعد "تثبيت تصحيح".

وتذكّر الحادثة بأن الذكاء الاصطناعي، حتى ولو كان توليدياً، لا يفهم ما "يقوله"، على عكس الانطباع الذي يمكن أن يعطيه خلال "المحادثات" مع المستخدمين.

فعندما ظهرت للمرة الأولى قبل عام، كانت الواجهات على غرار "تشات جي بي تي" أو البرنامجَين المنافسين لها من "غوغل" و"مايكروسوفت" تميل باستمرار إلى "الهلوسة"، أي اختلاق الوقائع أو حتى محاكاة عواطف.

.

المزيد من الأخبار من - sawaliftech