آخر الأخبار
تطبيقات دردشة بالذكاء الاصطناعي تكشف موقع المستخدم عبر تحليل الصور

تخيّل أن تلتقط صورة عادية في مكان عام، وتنشرها على وسائل التواصل، دون إرفاق أي معلومات، لا موقع، لا توقيت، لا بيانات وصفية على الإطلاق. تبدو صورة آمنة، أليس كذلك؟ لكن الواقع اليوم يقول عكس ذلك، وبشدة.
في كشف صادم وغير متوقّع، أعلنت شركة الأمن السيبراني “ميلوير بايتس” عن نتائج اختبارات أجرتها على بعض تطبيقات الذكاء الاصطناعي التوليدي، بما في ذلك “شات جي بي تي”، أظهرت أن هذه المنصات باتت قادرة على تحليل الصور بشكل يفوق قدرات البشر، إلى درجة أنها تستطيع تحديد موقع التقاط الصورة بدقة مريبة حتى في غياب أي معلومات مباشرة!
كيف يتم ذلك؟ الذكاء الاصطناعي يفكّ شيفرة الخلفيات
التقنية ليست سحرًا، بل نتيجة خوارزميات تحليلية متطورة قادرة على استخلاص أدق التفاصيل من الصورة: مثل نمط بناء معين، لوحة سيارة بلون مميز، شكل الأشجار، أو حتى طائر محلي لا يظهر إلا في منطقة معينة من العالم. كل عنصر في الصورة يصبح دليلًا في “تحقيق رقمي” يقوده الذكاء الاصطناعي للوصول إلى الموقع الجغرافي.
وقد أكّدت “ميلوير بايتس” أن هذه القدرة ليست مجرد صدفة، بل نتيجة منهجية واضحة تقوم على تحليل العناصر المعمارية والطبيعية في الصورة، ثم مقارنتها مع قاعدة بيانات ضخمة تحتوي على صور جغرافية من مختلف أنحاء العالم. الأمر شبيه بعملية تقصّي أثر رقمية لا تترك خلفها أي غموض.
الوجه الآخر للذكاء الاصطناعي: فيديوهات مزيفة تنبض بالحياة!
ولم يتوقف الأمر عند الصور. ففي ذات الأسبوع، نشرت جامعة هومبولت في برلين، ومعهد فراونهوفر هاينريش هيرتز الألماني، دراسة علمية تُعد من الأكثر إثارة للقلق في عالم الذكاء الاصطناعي المرئي. فقد كشفت التجارب أن تقنيات التزييف العميق (Deepfake) وصلت إلى مرحلة يمكن فيها توليد فيديوهات مزيفة تحاكي نبضات القلب البشرية!
في السابق، كان من الممكن كشف بعض مقاطع الفيديو المفبركة من خلال غياب الإشارات البيولوجية مثل تغيّر لون البشرة أو حركة الدم تحت الجلد. لكن الدراسة الجديدة كشفت عن قدرة الذكاء الاصطناعي على محاكاة هذه العلامات الحيوية بدقة تامة، مما يجعل المقاطع المزيفة تبدو حقيقية بشكل مُخيف.
ماذا يعني هذا؟ التزييف العميق تجاوز الخط الأحمر
إذا كانت الصورة تكشف موقعك، والفيديوهات تستطيع خداع خبراء الأمن والتحقيق، فإلى أين يمكن أن تصل هذه التقنية؟ الخبراء يحذّرون من استغلال هذه القدرات في نشر معلومات مغلوطة، الابتزاز، أو اختراق الخصوصية الشخصية. تخيّل مثلًا أن تُنتج جهة مجهولة فيديو مزيف لك، يبدو فيه أنك تقول شيئًا لم تقله أبدًا، ويصعب على الآخرين أن يكتشفوا زيفه.
هذا ليس خيالًا علميًا، بل واقع تكنولوجي أصبح ممكنًا اليوم. ورغم أن الباحثين لا يزالون يبحثون عن طرق جديدة لكشف المقاطع المزيفة، مثل تحليل تدفق الدم في الوجه أو دراسة الأنماط الضوئية الدقيقة، إلا أن سباق التزييف والكشف عنه بات أكثر تعقيدًا من أي وقت مضى.
هل هناك أمل؟ خطوات ضرورية لمواجهة الخطر
في ظل هذه المعطيات، يدعو المتخصصون إلى وضع قوانين واضحة تنظم استخدام الذكاء الاصطناعي، وإجبار الشركات على وضع علامات رقمية أو توقيعات مائية على الصور والفيديوهات التي يتم توليدها اصطناعيًا. كما يؤكدون على أهمية التوعية المجتمعية، بحيث يصبح المستخدم العادي أكثر وعيًا بما يمكن أن يحدث من استغلال لهذه التقنيات.
الذكاء الاصطناعي لا يُخطئ في التقدير، لكنه أيضًا لا يملك ضميرًا. وهنا تكمن الخطورة. فبينما يُمكن أن نستخدمه لتحسين حياتنا، يمكن للبعض أن يوجّهه نحو التضليل والانتهاك. ويبقى السؤال: هل نحن مستعدون لما هو قادم؟