Logo
نصلك بمستقبل التكنولوجيا

اشترك الآن

لآخر التحديثات

آخر الأخبار

مساعد “واتساب” الذكي في ورطة: هل باتت خصوصيتك مهددة تحت ستار الذكاء الاصطناعي؟

منذ ١٤ يومًا
سوالف تك

img

خطأ بسيط، أم ناقوس خطر؟
في واقعة تثير الكثير من التساؤلات والقلق، تسبّب مساعد الذكاء الاصطناعي الجديد في تطبيق “واتساب” — الذي تروّج له شركة “ميتا” باعتباره “الأذكى على الإطلاق”  في جدل واسع بعد أن زوّد أحد المستخدمين برقم هاتف خاص لا علاقة له بالاستفسار المطلوب، في تصرف يفتح الباب أمام نقاش عالمي حول مصداقية وأمان الذكاء الاصطناعي الذي بات جزءًا من حياة الملايين.

 بداية القصة: سؤال بسيط… وإجابة خطيرة

بدأت الواقعة بشكل اعتيادي تمامًا، عندما حاول “باري سميثورست” — موظف في متجر تسجيلات موسيقية يبلغ من العمر 41 عامًا — الوصول إلى رقم خدمة العملاء لشركة TransPennine Express البريطانية للنقل، أثناء انتظاره لقطار لم يصل إلى محطته في “سادلورث”.

لكن بدلًا من التوجه إلى محرك بحث أو الموقع الرسمي، قرر سميثورست أن يجرب التكنولوجيا الحديثة، وسأل مساعد واتساب الذكي عن وسيلة التواصل.

ردّ المساعد فورًا بإعطاء رقم هاتف بدا أنه رسمي… إلى أن اتضح أن الرقم يخص “جيمس غراي”، وهو مسؤول تنفيذي في شركة عقارات لا علاقة له بالنقل ولا يعرف شيئًا عن الموضوع.

ما كان يمكن أن يُعتبر خطأ بسيطًا في البداية، سرعان ما تحوّل إلى حوار سريالي بين باري والمساعد، إذ بدأ الذكاء الاصطناعي يتراجع عن إجابته، ويقدّم تفسيرات متضاربة، تارة يقول إن الرقم وهمي، وتارة أخرى إنه “مُولِّد اعتمادًا على أنماط”، ثم يعترف لاحقًا بأنه ربما استُخرج من قاعدة بيانات حقيقية.

هنا بدأ القلق الحقيقي، كما عبّر عنه سميثورست في حديثه لصحيفة The Guardian، قائلًا:

“إذا كان المساعد اختلق الرقم بالكامل، فالأمر مزعج ولكن يمكن فهمه. لكن إن تم جلب الرقم من قاعدة بيانات حقيقية، فهذا أمر مرعب… هذا يعني أن خصوصيتنا لم تعد محمية بأي شكل.”

أما الضحية الفعلية للواقعة، السيد “جيمس غراي”، فلم يُخفِ دهشته وغضبه، إذ قال:

“لم أتوقع أبدًا أن أتلقى اتصالًا من شخص يبحث عن شركة قطارات. تخيّل أن بياناتك يمكن أن تُعرض فجأة لأي شخص، لمجرد أن ذكاءً اصطناعيًا قرر أنها مناسبة لسؤال معين! وإذا كان بمقدوره توليد رقمي… فهل يمكنه أيضًا توليد عنواني أو بياناتي البنكية؟”

ما حدث أثار موجة من المخاوف التقنية والأخلاقية. فهل كان ما حدث مجرد “هلوسة” تقنية؟
أم أن النظام قام بجلب بيانات حقيقية بشكل غير قانوني أو غير محسوب؟

تقول شركة “ميتا” إن الرقم كان متاحًا على الإنترنت، وتؤكد أنها لا تستخدم أرقام مستخدمي واتساب في إجابات المساعد، لكن خبراء التكنولوجيا يعتبرون أن “سهولة توليد بيانات شخصية تحت غطاء الإجابة الذكية” هي إشكالية تتطلب تدخلًا فوريًا.

 “الذكاء الاصطناعي يكذب؟”: تحذيرات من سلوكيات خادعة

الواقعة فتحت أيضًا باب الحديث عن ما يُعرف بـ**”الهلوسة المعلوماتية”** في نماذج الذكاء الاصطناعي — أي عندما “يخترع” الذكاء الاصطناعي إجابات أو معلومات غير حقيقية في محاولة لتقديم إجابة تبدو ذكية.

مايك ستانهوب، مدير إحدى الشركات القانونية البريطانية، وصف الحادثة بأنها:

“مثال فاضح على فشل الذكاء الاصطناعي الأخلاقي. إذا كانت ميتا تسمح لنظامها بالكذب لتجنّب قول (لا أعلم)، فعليها على الأقل أن تُبلغ المستخدمين بذلك بوضوح. وإن لم تكن تعلم أن أنظمتها تفعل ذلك… فالأمر أخطر بكثير.”

 هلوسة أم اختراق؟ ما الفرق؟

من الناحية التقنية، الهلوسة تعني ببساطة أن النموذج اللغوي يحاول ملء الفراغ بإجابة غير دقيقة لأن بيانات التدريب لا تحتوي على معلومة واضحة. لكن الخطورة تكمن حين تتحوّل هذه الهلوسة إلى مشاركة بيانات حقيقية دون تفويض — وهو ما يُعد انتهاكًا محتملاً للخصوصية.

شركة OpenAI، المطوّرة لـ”شات جي بي تي”، اعترفت سابقًا بأن الهلوسة هي واحدة من التحديات الكبرى، وأنها تعمل باستمرار على تحسين دقة النماذج. لكن الخبراء يحذرون من أن السرعة في إطلاق أدوات مساعدة مدمجة في الحياة اليومية مثل “واتساب” دون رقابة صارمة، قد يؤدي إلى نتائج كارثية.

ما حدث مع باري سميثورست قد يبدو حادثًا فرديًا، لكنه يُمثّل علامة تحذيرية على ما قد يكون قادمًا. فنحن نتعامل الآن مع أنظمة قادرة على توليد معلومات، لكن دون أن نفهم دائمًا من أين أتت أو كيف تم توليدها. والأسوأ أن هذه الأنظمة باتت تملك ثقة المستخدمين لمجرد أنها “تبدو ذكية”.

في ظل غياب تشريعات واضحة أو شفافية كافية من الشركات المطوّرة، تبقى الأسئلة معلّقة:

  • من يحاسب الذكاء الاصطناعي؟
  • كيف نعرف إن كانت المعلومات المولدة حقيقية؟
  • ومتى يُقال للمستخدم بوضوح: “أنا لا أعرف” بدلًا من اختراع إجابة؟



آخر الأخبار
img
قضية Google في كاليفورنيا: هل انتهت خصوصية بياناتك من هواتف Android؟
منذ ساعة واحدة
سوالف تك
img
مستقبل كرة القدم بخطر… الصين تستضيف أول مباراة روبوتية بالكامل
منذ ساعة واحدة
سوالف تك
img
Nothing Phone 3 يكشف عن هاتف فلاجشيب مبتكر
منذ يوم واحد
سوالف تك
img
Honor تكشف عن أنحف هاتف قابل للطي في العالم: Honor Magic V5 بمواصفات مذهلة
منذ يوم واحد
سوالف تك
img
نصائح محترفة لاستخدام Google AI Mode بذكاء: تجربة 4 أشهر.
منذ يوم واحد
سوالف تك
img
الإمارات تدخل بقوة عالم الذكاء الاصطناعي وتعيد رسم مستقبل التقنية
منذ يوم واحد
سوالف تك
img
كيفية التحقق من وجود برامج التجسس على أجهزتك وحمايتها.
منذ يوم واحد
سوالف تك
img
تيسلا تدشن روبوتاكسي في أوستن… هل تتفوق على Waymo وZoox؟
منذ يوم واحد
سوالف تك
img
بطاقة Whish Visa متوفرة الآن في Google Wallet في لبنان ، طريقة دفع أسهل لمستخدمي Android عبر Google Pay 
منذ يوم واحد
سوالف تك
img
أمازون ويب سيرفيسز تُطلق ثلاث إمكانات أمنية رئيسية في re:Inforce لتساعد العملاء على تبسيط سير عملهم والتوسع
منذ يوم واحد
سوالف تك
img
5 نساء من MENA في التكنولوجيا يكسرن الحواجز — قصص ملهمة
منذ يومين
سوالف تك
img
هاتف سامسونغ الجديد Galaxy G Fold: تصميم مختلف… وسعر صادم!
منذ يومين
سوالف تك
img
6 استخدامات لـ Google Gemini تغير طريقة يومك
منذ يومين
سوالف تك
img
آيفون 17 برو ماكس قد يكون أفضل ما صنعته آبل… والسبب في هذه 5 تسريبات!
منذ يومين
سوالف تك
img
قبل ان تمرض: هكذا يسبق الذكاء الاصطناعي الأعراض 
منذ يومين
سوالف تك
النشرة الإلكترونية

ابقى على اطلاع بآخر التحديثات في المواضيع التي تهمك

EmailIcon
2025 @ حقوق الملكية محفوظة لسوالف تِك
SawaliftechLogo