آخر الأخبار
مساعد “واتساب” الذكي في ورطة: هل باتت خصوصيتك مهددة تحت ستار الذكاء الاصطناعي؟

خطأ بسيط، أم ناقوس خطر؟
في واقعة تثير الكثير من التساؤلات والقلق، تسبّب مساعد الذكاء الاصطناعي الجديد في تطبيق “واتساب” — الذي تروّج له شركة “ميتا” باعتباره “الأذكى على الإطلاق” في جدل واسع بعد أن زوّد أحد المستخدمين برقم هاتف خاص لا علاقة له بالاستفسار المطلوب، في تصرف يفتح الباب أمام نقاش عالمي حول مصداقية وأمان الذكاء الاصطناعي الذي بات جزءًا من حياة الملايين.
بداية القصة: سؤال بسيط… وإجابة خطيرة
بدأت الواقعة بشكل اعتيادي تمامًا، عندما حاول “باري سميثورست” — موظف في متجر تسجيلات موسيقية يبلغ من العمر 41 عامًا — الوصول إلى رقم خدمة العملاء لشركة TransPennine Express البريطانية للنقل، أثناء انتظاره لقطار لم يصل إلى محطته في “سادلورث”.
لكن بدلًا من التوجه إلى محرك بحث أو الموقع الرسمي، قرر سميثورست أن يجرب التكنولوجيا الحديثة، وسأل مساعد واتساب الذكي عن وسيلة التواصل.
ردّ المساعد فورًا بإعطاء رقم هاتف بدا أنه رسمي… إلى أن اتضح أن الرقم يخص “جيمس غراي”، وهو مسؤول تنفيذي في شركة عقارات لا علاقة له بالنقل ولا يعرف شيئًا عن الموضوع.
ما كان يمكن أن يُعتبر خطأ بسيطًا في البداية، سرعان ما تحوّل إلى حوار سريالي بين باري والمساعد، إذ بدأ الذكاء الاصطناعي يتراجع عن إجابته، ويقدّم تفسيرات متضاربة، تارة يقول إن الرقم وهمي، وتارة أخرى إنه “مُولِّد اعتمادًا على أنماط”، ثم يعترف لاحقًا بأنه ربما استُخرج من قاعدة بيانات حقيقية.
هنا بدأ القلق الحقيقي، كما عبّر عنه سميثورست في حديثه لصحيفة The Guardian، قائلًا:
“إذا كان المساعد اختلق الرقم بالكامل، فالأمر مزعج ولكن يمكن فهمه. لكن إن تم جلب الرقم من قاعدة بيانات حقيقية، فهذا أمر مرعب… هذا يعني أن خصوصيتنا لم تعد محمية بأي شكل.”
أما الضحية الفعلية للواقعة، السيد “جيمس غراي”، فلم يُخفِ دهشته وغضبه، إذ قال:
“لم أتوقع أبدًا أن أتلقى اتصالًا من شخص يبحث عن شركة قطارات. تخيّل أن بياناتك يمكن أن تُعرض فجأة لأي شخص، لمجرد أن ذكاءً اصطناعيًا قرر أنها مناسبة لسؤال معين! وإذا كان بمقدوره توليد رقمي… فهل يمكنه أيضًا توليد عنواني أو بياناتي البنكية؟”
ما حدث أثار موجة من المخاوف التقنية والأخلاقية. فهل كان ما حدث مجرد “هلوسة” تقنية؟
أم أن النظام قام بجلب بيانات حقيقية بشكل غير قانوني أو غير محسوب؟
تقول شركة “ميتا” إن الرقم كان متاحًا على الإنترنت، وتؤكد أنها لا تستخدم أرقام مستخدمي واتساب في إجابات المساعد، لكن خبراء التكنولوجيا يعتبرون أن “سهولة توليد بيانات شخصية تحت غطاء الإجابة الذكية” هي إشكالية تتطلب تدخلًا فوريًا.
“الذكاء الاصطناعي يكذب؟”: تحذيرات من سلوكيات خادعة
الواقعة فتحت أيضًا باب الحديث عن ما يُعرف بـ**”الهلوسة المعلوماتية”** في نماذج الذكاء الاصطناعي — أي عندما “يخترع” الذكاء الاصطناعي إجابات أو معلومات غير حقيقية في محاولة لتقديم إجابة تبدو ذكية.
مايك ستانهوب، مدير إحدى الشركات القانونية البريطانية، وصف الحادثة بأنها:
“مثال فاضح على فشل الذكاء الاصطناعي الأخلاقي. إذا كانت ميتا تسمح لنظامها بالكذب لتجنّب قول (لا أعلم)، فعليها على الأقل أن تُبلغ المستخدمين بذلك بوضوح. وإن لم تكن تعلم أن أنظمتها تفعل ذلك… فالأمر أخطر بكثير.”
هلوسة أم اختراق؟ ما الفرق؟
من الناحية التقنية، الهلوسة تعني ببساطة أن النموذج اللغوي يحاول ملء الفراغ بإجابة غير دقيقة لأن بيانات التدريب لا تحتوي على معلومة واضحة. لكن الخطورة تكمن حين تتحوّل هذه الهلوسة إلى مشاركة بيانات حقيقية دون تفويض — وهو ما يُعد انتهاكًا محتملاً للخصوصية.
شركة OpenAI، المطوّرة لـ”شات جي بي تي”، اعترفت سابقًا بأن الهلوسة هي واحدة من التحديات الكبرى، وأنها تعمل باستمرار على تحسين دقة النماذج. لكن الخبراء يحذرون من أن السرعة في إطلاق أدوات مساعدة مدمجة في الحياة اليومية مثل “واتساب” دون رقابة صارمة، قد يؤدي إلى نتائج كارثية.
ما حدث مع باري سميثورست قد يبدو حادثًا فرديًا، لكنه يُمثّل علامة تحذيرية على ما قد يكون قادمًا. فنحن نتعامل الآن مع أنظمة قادرة على توليد معلومات، لكن دون أن نفهم دائمًا من أين أتت أو كيف تم توليدها. والأسوأ أن هذه الأنظمة باتت تملك ثقة المستخدمين لمجرد أنها “تبدو ذكية”.
في ظل غياب تشريعات واضحة أو شفافية كافية من الشركات المطوّرة، تبقى الأسئلة معلّقة:
- من يحاسب الذكاء الاصطناعي؟
- كيف نعرف إن كانت المعلومات المولدة حقيقية؟
- ومتى يُقال للمستخدم بوضوح: “أنا لا أعرف” بدلًا من اختراع إجابة؟