آخر الأخبار
كيف يستخدم القراصنة الربوتات لاستهداف الضحايا؟

مع الانتشار الواسع لروبوتات الذكاء الاصطناعي العامة مثل “ChatGPT” و”Gemini” و”Copilot”، أصبح الوصول إلى تقنيات متقدمة متاحًا للجميع، وهو ما يفتح الباب أمام استخدامات ثنائية: إما لتقديم خدمات مفيدة للبشرية أو لتنفيذ هجمات إلكترونية معقدة وفعالة بشكل غير مسبوق.
ففي الجانب الإيجابي، يمكن للذكاء الاصطناعي أن يحدث ثورة في قطاع الصحة من خلال مساعدة الأطباء في التشخيص الدقيق، أو تمكين الطلاب والباحثين من الوصول إلى مصادر معرفية عالية الجودة. لكن على الجانب الآخر، يمكن لهذه الأدوات أن تقع في أيدي مجرمي الإنترنت (الهاكرز) وتتحول إلى أدوات تُمكّنهم من تنفيذ هجمات إلكترونية متطورة، يصعب كشفها ومواجهتها.
كيف يختار الهاكرز ضحاياهم بمساعدة الذكاء الاصطناعي؟
لم تعد هجمات القراصنة عشوائية أو بدائية كما في السابق، بل أصبح اختيار الضحية مدفوعًا بالتحليل الذكي والبحث العميق. تستخدم أدوات الذكاء الاصطناعي اليوم في تحليل الحسابات الشخصية على وسائل التواصل الاجتماعي، وتجميع بيانات مثل الصور، السيرة الذاتية، العلاقات، وحتى أسلوب الكتابة.
بفضل هذه البيانات، يمكن للمخترقين إنشاء حسابات مزيفة تبدو واقعية للغاية، أو السيطرة على حسابات حقيقية، ومن ثم استخدامها لخداع الأصدقاء والمعارف من خلال إرسال رسائل احتيالية تحتوي على روابط خبيثة أو طلبات مالية مقنعة.
وما يجعل هذه الهجمات فعالة هو قدرة الذكاء الاصطناعي على تقليد أسلوب الضحية، وتحليل محادثاته السابقة، واستخدام نبرة التواصل نفسها، ما يجعل الرسالة تبدو طبيعية تمامًا.
الأنواع الأكثر شيوعًا للهجمات التي تعتمد على الذكاء الاصطناعي
1. روبوتات الذكاء الاصطناعي الخبيثة
ظهرت إصدارات موجهة نحو الإجرام مثل WormGPT وFraudGPT وOnionGPT، والتي تُستخدم لإنشاء برمجيات ضارة أو لاكتشاف الثغرات في الأنظمة الإلكترونية.
ومن أخطر هذه النماذج: Love-GPT، المصمم للاحتيال العاطفي عبر تطبيقات المواعدة. يستخدم هذا النموذج الذكاء الاصطناعي لإجراء محادثات رومانسية مقنعة مع الضحايا بهدف استغلالهم ماديًا وعاطفيًا.
2. تحليل الكود واكتشاف الثغرات الأمنية
يستغل الهاكرز قدرات روبوتات الذكاء الاصطناعي مثل ChatGPT-4 لفحص الأكواد البرمجية وتحليلها لاكتشاف الثغرات الأمنية.
وفي حين أن الهدف الظاهري من هذه الأداة هو تعزيز الأمان وتحسين الكود، فإن المهاجمين يستخدمونها لفهم كيفية اختراق الأنظمة وتعديل الكود لاستغلال الثغرات دون الحاجة إلى خبرة برمجية عميقة.
3. البرمجيات الخبيثة ذاتية التشغيل
في السابق، كان المخترق يحتاج إلى التدخل اليدوي لتوجيه البرمجيات الضارة بعد اختراق الشبكة. أما اليوم، فقد ظهرت برمجيات خبيثة مدعومة بالذكاء الاصطناعي يمكنها العمل بشكل مستقل، وتحليل النظام، واكتشاف البيانات الحساسة، وسحب المعلومات من دون توجيه مباشر.
وهذا يجعل هذه البرمجيات أكثر ذكاءً، وأصعب في الاكتشاف، وأكثر قدرة على شن هجمات واسعة دون الحاجة إلى موارد كبيرة.
4. حملات التضليل الآلي
يستخدم بعض القراصنة الذكاء الاصطناعي لإطلاق حملات تضليل واسعة النطاق على الإنترنت. حيث يمكن لتلك الروبوتات توليد محتوى مزيف ومنشورات تبدو واقعية لنشر أخبار كاذبة أو تشويه سمعة مؤسسات أو شخصيات.
هذه الروبوتات تكتب تعليقات وترد على المناقشات بأسلوب إنساني، مما يصعب التمييز بينها وبين الأشخاص الحقيقيين، وتسهم في تضليل الرأي العام وخلق انقسامات فكرية أو سياسية.
5. هجمات التصيّد الاحتيالي المتقدمة (Spear Phishing)
الذكاء الاصطناعي غيّر قواعد اللعبة في هذا المجال. إذ أصبحت الروبوتات قادرة على توليد رسائل مخصصة بدقة لكل ضحية، بناءً على ملفه الشخصي ومحتواه التفاعلي. بل يمكنها تقليد شخصيات معروفة باستخدام تقنيات التزييف العميق (DeepFake)، ما يجعل الرسائل الاحتيالية شديدة الإقناع.
في إحدى الحالات، نُشر مقطع فيديو مزيف لرئيس إحدى المنصات الكبرى باستخدام تقنيات التزييف العميق، في محاولة لخداع المستخدمين للحصول على بيانات تسجيل دخولهم.
هل يمكن مواجهة هذا الخطر؟
رغم التطور الكبير في أنظمة الحماية الإلكترونية مثل المصادقة الثنائية (2FA)، واختبارات CAPTCHA المتقدمة، ومراقبة السلوك المشبوه، فإن العنصر البشري يبقى الحلقة الأضعف. حيث ينجح المخترقون في اختراق الأنظمة ليس بتجاوز الحواجز التقنية، بل بخداع البشر أنفسهم.
لذلك، يبقى الوعي والتدريب والتحديث المستمر للمعلومات الأمنية من أهم وسائل الحماية. كما يجب على الشركات والمؤسسات مراجعة أنظمتها بانتظام، والحرص على توعية موظفيها بشأن التهديدات الرقمية الحديثة.
الذكاء الاصطناعي ليس خيرًا ولا شرًا بطبيعته، بل هو أداة تعتمد نتائجها على نية من يستخدمها. فإن كانت نية الاستخدام نبيلة، فهو وسيلة لتطوير البشرية. أما في أيدي المخترقين، فقد يكون الذكاء الاصطناعي أقوى سلاح رقمي يُستخدم ضد الأفراد والمؤسسات على حد سواء.