آخر الأخبار
تحذير من استخدام ChatGPT-4o في الاحتيال وسرقة الأموال

أظهرت دراسة حديثة أن واجهة برمجة التطبيقات الصوتية لمساعد ChatGPT-4o من OpenAI قد تُستخدم كأداة من قبل مجرمي الإنترنت لتنفيذ عمليات احتيال مالي، حيث تتراوح معدلات نجاح هذه العمليات بين منخفضة ومتوسطة. يُعتبر ChatGPT-4o أحدث نموذج ذكاء اصطناعي من OpenAI، ويتميز بقدرته على معالجة النصوص، والأصوات، والمرئيات بشكل متكامل.
قضايا الأمان في استخدام تقنيات الذكاء الاصطناعي
على الرغم من الجهود المبذولة من OpenAI لدمج آليات أمان متطورة للكشف عن المحتوى الضار ومنع استخدام الأصوات غير المُصرّح بها، إلا أن مع تزايد انتشار تقنيات التزييف الصوتي العميق وأدوات تحويل النص إلى صوت، تزداد المخاطر المرتبطة بالاحتيال الصوتي، الذي تُقدّر خسائره بالملايين.
قامت مجموعة من الباحثين في جامعة إلينوي بنشر ورقة بحثية توضح أن الأدوات التقنية الحديثة المتاحة للجمهور تفتقر إلى تدابير حماية كافية ضد إساءة الاستخدام في عمليات الاحتيال. واستعرضت الدراسة أنواعًا متعددة من عمليات الاحتيال، بما في ذلك التحويلات المصرفية، وسرقة بطاقات الهدايا، وتحويل العملات الرقمية، وسرقة بيانات حسابات التواصل الاجتماعي والبريد الإلكتروني.
كيفية تنفيذ عمليات الاحتيال
تستغل العمليات الاحتيالية الأدوات المُبرمجة التي تعتمد على الصوت في ChatGPT-4o للقيام بعمليات مثل التنقل بين صفحات الويب، وإدخال البيانات، وإدارة الأكواد الخاصة بالمصادقة الثنائية. على الرغم من أن نموذج GPT-4o يرفض عادةً التعامل مع البيانات الحساسة، تمكن الباحثون من تجاوز بعض القيود باستخدام تقنيات بسيطة لتحفيز النموذج على الاستجابة.
لإثبات فعالية عمليات الاحتيال، قام الباحثون بمحاكاة أدوار الضحايا في تجاربهم، واستخدموا مواقع مثل “بنك أمريكا” للتحقق من نجاح عمليات التحويل المصرفي. لم يُقيّموا مدى قدرة النموذج على الإقناع، لكن التجارب أظهرت أن معدلات النجاح تراوحت بين 20% و60%.
النتائج والإحصائيات
تطلبت كل محاولة عملية احتيال ما يصل إلى 26 خطوة متتالية عبر المتصفح، واستغرقت حوالي ثلاث دقائق في الحالات الأكثر تعقيدًا. أظهرت النتائج أن عمليات سرقة بيانات حسابات Gmail حققت نسبة نجاح بلغت 60%، في حين كانت نسبة نجاح عمليات تحويل العملات الرقمية وسرقة بيانات إنستاجرام 40%.
التكاليف والآثار الاقتصادية
تُعتبر تكاليف تنفيذ عمليات الاحتيال منخفضة نسبيًا، حيث بلغت تكلفة كل عملية ناجحة نحو 75 سنتًا أمريكيًا، بينما بلغت تكلفة العمليات الأكثر تعقيدًا مثل التحويلات المصرفية نحو 2.51 دولار فقط.
تعليق OpenAI
في تعليق لشركة OpenAI، نشره موقع BleepingComputer التقني، أكدت أن نموذجها الأحدث “o1-preview” يتمتع بقدرات أعلى في مقاومة محاولات الاحتيال مقارنة بالنماذج السابقة، مع تحقيق تقييم أمان بنسبة 93% مقارنةً بـ 71% لنموذج GPT-4o. وأشارت OpenAI إلى أن الأبحاث الأكاديمية مثل تلك المقدمة من جامعة إلينوي تُسهم في تحسين ChatGPT لمواجهة الاستخدامات الضارة، وأكدت التزامها بتعزيز آليات الأمان في نماذجها المستقبلية.
مع تزايد استخدام تقنيات الذكاء الاصطناعي، يبرز أهمية التركيز على الأمان والحماية ضد إساءة الاستخدام. تعتبر جهود OpenAI ضرورية للتصدي لتهديدات الاحتيال المالي، وتستدعي الحاجة إلى تعاون أكبر بين الشركات والباحثين لضمان الاستخدام الآمن للتكنولوجيا.