آخر الأخبار
الذكاء الاصطناعي والهلوسة: تحديات وفخاخ البيانات
تُعرف هلوسة الذكاء الاصطناعي (AI Hallucination) بأنها الحالة التي يقوم فيها نموذج لغوي كبير (LLM) مثل OpenAI’s GPT-4 أو Google PaLM باختلاق معلومات أو حقائق غير صحيحة لا تستند إلى بيانات أو أحداث حقيقية. هذا السلوك يثير القلق حول مدى دقة ومصداقية المعلومات التي تقدمها هذه النماذج.
تشرح أفيفا ليتان، نائبة رئيس المحللين في جارتنر، أن الهلوسة هي مخرجات ملفقة بالكامل من نماذج لغوية كبيرة. وعلى الرغم من أنها تمثل حقائق ملفقة بالكامل، إلا أن مخرجات النماذج اللغوية الكبيرة تقدمها بثقة وسلطة. يمكن لروبوتات الدردشة التوليدية التي تعتمد على الذكاء الاصطناعي تلفيق أي معلومات واقعية، من الأسماء والتواريخ والأحداث التاريخية إلى الاقتباسات أو حتى الرموز.
من الجدير بالذكر أن OpenAI تصدر بالفعل تحذيراً للمستخدمين داخل ChatGPT ينص على أن “ChatGPT قد ينتج معلومات غير دقيقة عن الأشخاص أو الأماكن أو الحقائق”. التحدي الكبير الذي يواجه المستخدمين هو فرز المعلومات الصحيحة من غير الصحيحة.
أمثلة على هلوسات الذكاء الاصطناعي
تظهر هلوسات الذكاء الاصطناعي بشكل مستمر، وأحد أبرز الأمثلة على ذلك هو ما حدث في مقطع فيديو ترويجي أصدرته Google في فبراير 2023. حينها، ادعى روبوت الدردشة الآلي Bard بشكل غير صحيح أن تلسكوب جيمس ويب الفضائي التقط أول صورة لكوكب خارج المجموعة الشمسية. وفي عرض توضيحي لإطلاق Microsoft Bing AI في فبراير 2023، حلل Bing بيان أرباح من شركة Gap، وقدم ملخصاً غير صحيح للحقائق والأرقام.
توضح هذه الأمثلة أنه لا يمكن للمستخدمين أن يثقوا دائماً في أن روبوتات الدردشة الآلية ستقدم ردودًا حقيقية طوال الوقت. ومع ذلك، فإن المخاطر التي تشكلها هلوسة الذكاء الاصطناعي تتجاوز مجرد نشر المعلومات الخاطئة. يمكن لروبوتات الدردشة الآلية إنشاء عناوين URL ومراجع ومكتبات أكواد لا وجود لها أو حتى التوصية بحزم برامج ضارة محتملة للمستخدمين غير المرتابين.
أسباب هلوسة الذكاء الاصطناعي
- بعض العوامل الرئيسية وراء هلوسات الذكاء الاصطناعي تشمل:
- – بيانات تدريب قديمة أو قليلة الجودة.
- – بيانات غير مصنفة أو مصنفة بشكل غير صحيح.
- – أخطاء واقعية أو تناقضات أو تحيزات في بيانات التدريب.
- – عدم كفاية البرمجة لتفسير المعلومات بشكل صحيح.
- – نقص السياق المقدم من المستخدم.
- – صعوبة استنتاج القصد من الألفاظ العامية أو التعبيرات العامية أو السخرية.
من المهم كتابة المطالبات بلغة إنجليزية واضحة مع أكبر قدر ممكن من التفاصيل. تقع على عاتق البائع في نهاية المطاف مسؤولية تنفيذ البرمجة والحواجز الواقية الكافية للتخفيف من احتمالية حدوث الهلوسة.
مخاطر هلوسة الذكاء الاصطناعي
أحد المخاطر الرئيسية لهلوسة الذكاء الاصطناعي هو اعتماد المستخدم كثيراً على دقة مخرجات نظام الذكاء الاصطناعي. على الرغم من أن بعض الأفراد، مثل الرئيس التنفيذي لشركة مايكروسوفت ساتيا ناديلا، قد جادلوا بأن أنظمة الذكاء الاصطناعي مثل Microsoft Copilot قد تكون “خاطئة بشكل مفيد”، إلا أن هذه الحلول يمكن أن تنشر معلومات مضللة ومحتوى بغيض إذا تُركت دون رقابة.
المعلومات المضللة التي يتم إنشاؤها بواسطة الذكاء الاصطناعي يمكن أن تولد محتوى يبدو مفصلاً ومقنعاً وموثوقاً على السطح ولكنه في الواقع غير صحيح، مما يؤدي إلى تصديق المستخدم لحقائق ومعلومات غير صحيحة. إذا أخذ المستخدمون المحتوى الذي يتم إنشاؤه بالذكاء الاصطناعي على ظاهره، فهناك احتمال انتشار معلومات خاطئة وغير صحيحة عبر الإنترنت ككل.
وأخيراً، هناك أيضاً خطر المسؤوليات القانونية والامتثال. على سبيل المثال، إذا استخدمت إحدى المؤسسات خدمة مدعومة بالذكاء الاصطناعي للتواصل مع العملاء، والتي تصدر إرشادات تضر بممتلكات المستخدم أو تعيد نشر محتوى مسيء، فقد تتعرض لخطر اتخاذ إجراءات قانونية.
كيفية اكتشاف هلوسات الذكاء الاصطناعي
إن أفضل طريقة للمستخدم لاكتشاف ما إذا كان نظام الذكاء الاصطناعي يهلوس هي التحقق يدويًا من الحقائق التي يقدمها الحل مع مصدر خارجي. يمكن أن يساعدك التحقق من الحقائق والأرقام والحجج بالمقارنة مع المواقع الإخبارية والتقارير الصناعية والدراسات والكتب عبر محرك بحث في التحقق مما إذا كانت المعلومة صحيحة أم لا.
على الرغم من أن التدقيق اليدوي يعد خيارًا جيدًا للمستخدمين الذين يرغبون في اكتشاف المعلومات الخاطئة، إلا أنه في بيئة المؤسسة، قد لا يكون التحقق من كل جزء من المعلومات مجديًا من الناحية اللوجستية أو الاقتصادية. لهذا السبب، من الجيد التفكير في استخدام الأدوات الآلية للتحقق مرة أخرى من حلول الذكاء الاصطناعي التوليدي للهلوسة.
على سبيل المثال، يمكن لأداة Nvidia مفتوحة المصدر NeMo Guardrails من Nvidia تحديد الهلوسة عن طريق التحقق من مخرجات أحد الحلول التوليدية للذكاء الاصطناعي مقابل أخرى. وبالمثل، تقدم شركة Got It AI حلاً يسمى TruthChecker، والذي يستخدم الذكاء الاصطناعي للكشف عن الهلوسة في المحتوى الذي تم إنشاؤه بواسطة GPT-3.5+.
قد يُتيح الذكاء الاصطناعي وآليات إدارة التعلم الآلي بعض القدرات المذهلة للمؤسسات، ولكن من المهم للمستخدمين أن يكونوا على دراية بمخاطر وقيود هذه التقنيات للحصول على أفضل النتائج. في نهاية المطاف، توفر حلول الذكاء الاصطناعي أكبر قيمة عندما يتم استخدامها لزيادة الذكاء البشري بدلاً من محاولة استبداله. وما دام المستخدمون والمؤسسات يدركون أن تقنيات الذكاء الاصطناعي المحلية لديها القدرة على تلفيق المعلومات والتحقق من البيانات الناتجة في مكان آخر، فإن مخاطر نشر أو استيعاب المعلومات الخاطئة ستقل إلى أدنى حد ممكن.