آخر الأخبار
كيف تحوّلت صيحات صور الذكاء الاصطناعي إلى تهديدات خفية تطال الخصوصية والأمن والبيئة؟”

في نهاية مارس الماضي، اجتاحت شبكات التواصل الاجتماعي موجة رقمية جديدة أخذت العالم على حين غرة، تجسّدت في صيحة “الصور بأسلوب استوديو جيبلي” (Studio Ghibli-style images). وبقدر ما حملت هذه الظاهرة من جاذبية فنية ساحرة، إلا أنها لم تكن سوى بداية لسلسلة من الاتجاهات الرقمية التي سرعان ما تحوّلت من أدوات ترفيه إلى وسائل جمع بيانات ضخمة، تغذي شركات الذكاء الاصطناعي بكميات لا تُقدّر بثمن من المعلومات الحساسة.
ومن قلب هذا الزخم، ظهرت صيحة جديدة حملت اسم “AI doll” أو “Barbie box trend”، تعتمد على تحويل صور المستخدمين إلى دمى رقمية تظهر داخل صناديق شبيهة بعلب دمى باربي، مزودة بإكسسوارات تعبّر عن المهنة أو الاهتمامات الشخصية لصاحب الصورة. وعلى غرار سابقتها، شهدت هذه الصيحة انتشارًا هائلًا، مصحوبًا بفيض من التفاعل والمشاركات على مختلف المنصات.
لكن خلف هذه الظاهرة الترفيهية الظاهرية، تنكشف أبعاد أكثر تعقيدًا وخطورة تتعلق بانتهاك الخصوصية، واستغلال البيانات، وفتح أبواب خلفية لتسليم معلومات بيومترية وبيانات وصفية وسياقية طوعًا، في وقت أصبح فيه الأمن الرقمي موضوعًا شديد الحساسية على الساحة العالمية.
ما وراء المرح: كيف تعمل صيحات الذكاء الاصطناعي التوليدي؟
تعمل هذه الصيحات الرقمية وفق آلية مكررة ولكن فعالة:
- تحميل صورة شخصية.
- إضافة أوامر نصية توجيهية (prompts) تحدد شكل الدمية أو الطابع العام للصورة.
- الانتظار للحظات، ثم استعراض النتيجة النهائية البراقة.
- مشاركة الصورة على منصات التواصل، غالبًا بهدف الحصول على الإعجابات والمشاركات والتفاعل.
لكن كل خطوة من هذه الخطوات تحمل في طياتها تنازلات ضخمة من المستخدم لصالح الشركة المطورة.
فعند تحميل الصورة – سواء بأسلوب جيبلي أو دمية باربي – يُطلب من المستخدم إدخال بيانات شخصية إضافية: المهنة، الهوايات، الاهتمامات، أحيانًا الموقع الجغرافي أو تفاصيل دقيقة عن نمط الحياة، كل ذلك ليبدو التمثيل الرقمي أكثر دقة وواقعية. وهنا يكمن مكمن الخطر الحقيقي.
قالت لويزا جاروفسكي، المؤسسة المشاركة لأكاديمية الذكاء الاصطناعي والخصوصية، إن هذه الصيحات تمثل “خدعة خصوصية ذكية” تقوم على مبدأ بسيط: “أعطِنا بياناتك وسنمنحك صورة جذابة”.
في الواقع، عند رفع الصورة، يوافق المستخدم – غالبًا دون أن يقرأ أو يفهم بنود الخدمة – على منح شركة الذكاء الاصطناعي الحق القانوني في استخدام بياناته، بما في ذلك ملامحه البيومترية. هذه الموافقة تتجاوز في كثير من الأحيان الحماية التي تقدمها التشريعات مثل اللائحة العامة لحماية البيانات (GDPR)، لأنها تأتي بمبادرة من المستخدم نفسه.
والأدهى من ذلك أن هذه البيانات قد تُستخدم لاحقًا في تدريب النماذج الذكية، أو توليد محتوى تسويقي مخصص، أو حتى تغذية أنظمة مراقبة وتحليل سلوكي، دون علم المستخدم أو قدرته على الاعتراض أو المحاسبة.
يحذر خبراء الأمن السيبراني من أن مشاركة الصور والبيانات الشخصية في هذه التطبيقات يجعلها أهدافًا مغرية للقرصنة. قال إيمون ماغواير، رئيس قسم أمن الحسابات في شركة Proton، إن هذه الصيحات تفتح “صندوق باندورا” مليئًا بالاحتمالات المخيفة:
- انتحال الهوية.
- التلاعب السياسي بالمحتوى.
- الاحتيال المالي.
- الهجمات السيبرانية الموجهة.
وقد استشهد ماغواير بحوادث حقيقية، منها تسريب بيانات شركة DeepSeek، وتسرب بيانات حساسة من مكتبة تابعة لـOpenAI، تضمنت أسماء، عناوين بريدية، ومعلومات مالية لمستخدمين.
تُظهر هذه الحوادث بوضوح أن شركات الذكاء الاصطناعي، رغم قوتها التقنية، ليست بالضرورة محصنة ضد الثغرات الأمنية، وأن أي بيانات تُحمّل على أنظمتها يمكن أن تصبح في لحظة واحدة عرضة للسرقة أو الاستغلال.
إلى جانب المخاطر الأمنية والخصوصية، تشير تقارير حديثة إلى أن تشغيل نماذج الذكاء الاصطناعي – وعلى رأسها ChatGPT – يستهلك كميات ضخمة من الكهرباء، ما يُشكّل تهديدًا بيئيًا متزايدًا.
البروفيسورة جينا نيف من جامعة كوين ماري في لندن كشفت أن مراكز البيانات التي تشغّل ChatGPT تستهلك كهرباء في عام واحد أكثر من 117 دولة مجتمعة. هذا الرقم يضع هذه التطبيقات في خانة الأنشطة عالية الانبعاثات، ويثير تساؤلات جوهرية حول استدامة هذه التقنيات على المدى الطويل.
عندما تُستخدم هذه الطاقة لتوليد صور “مرحة” لا تمتّ للضرورة التقنية أو الإنسانية بصلة، فإن السؤال يصبح حتميًا: هل يستحق الترفيه الرقمي كل هذا العبء البيئي؟
لقد أصبحت خصوصيتنا اليوم أشبه بالعملة الصعبة التي نتخلى عنها بسهولة مقابل لمحة من التقدير الافتراضي. وفي عصر يهيمن فيه الذكاء الاصطناعي على كل جوانب الحياة، يتوجب علينا أن نعيد التفكير بعمق في كيفية تفاعلنا مع هذه الأدوات.
الصيحات مثل Barbie box أو Ghibli-style لم تعد مجرد اتجاهات لطيفة تنتشر على تيك توك وإنستاجرام، بل تحولت إلى أدوات استراتيجية لجمع البيانات، وتصنيع نماذج سلوكية، واختبار حدود الموافقة الرقمية.
هل نحن مستعدون لهذا الواقع؟ وهل نفهم حقًا الأبعاد الأخلاقية، الأمنية، والبيئية وراء هذه الصيحات؟
ربما آن الأوان لإبطاء الخطى قليلًا، والتأمل في الثمن الخفي الذي ندفعه مقابل متعة عابرة.