آخر الأخبار
باحثون يحذرون من خطر التلاعب بالروبوتات المدعومة بالذكاء الاصطناعي لاستخدامها في أغراض خبيثة

حذر باحثون من جامعة بنسلفانيا الأمريكية من إمكانية التلاعب بالروبوتات المدعومة بالذكاء الاصطناعي لاستخدامها في أغراض خبيثة، مما قد يؤدي إلى تهديدات خطيرة للأمن البشري. في دراسة حديثة، قام الباحثون بتطوير تقنية هجوم جديدة تسمح لهم بالتلاعب بثلاثة نماذج روبوتية، ما يفتح المجال لاستخدام هذه الروبوتات في أهداف قد تكون ضارة بشكل مقلق.
تقنية جديدة تفتح الباب للتلاعب بالروبوتات
طور باحثون من كلية الهندسة بجامعة بنسلفانيا تقنية هجومية أطلقوا عليها اسم “RoboPAIR”، وهي تقنية تسمح للمهاجمين بالتحكم في روبوتات مدعومة بنماذج لغوية كبيرة (LLMs). باستخدام هذه التقنية، تمكن الباحثون من التلاعب بثلاثة أنواع من الروبوتات هي: روبوت “Dolphins LLM” من شركة Nvidia، و”Jackal UGV” من Clearpath Robotics، و”Go2 Quadruped” من Unitree Robotics. استطاع الباحثون تحقيق نسبة نجاح بلغت 100% في تنفيذ الهجوم على هذه الروبوتات.
وتهدف هذه التقنية إلى استخدام الواجهة البرمجية (API) الخاصة بالروبوتات لتوجيه الأوامر التي تنفذها الروبوتات على أنها أكواد برمجية، مما يعزز قدرة المهاجمين على التلاعب بها لتحقيق أهدافهم.
الأضرار المحتملة للتلاعب بالروبوتات
الروبوتات المعززة بالذكاء الاصطناعي قد تُستخدم في مجموعة واسعة من التطبيقات في العالم المادي، بما في ذلك السيارات ذاتية القيادة، الأجهزة الطبية، والمعدات العسكرية. لكن مع تزايد استخدام هذه الروبوتات، يزداد خطر تعرضها للتلاعب بطرق قد تكون مدمرة.
وفقًا للباحثين، تشمل المخاطر المحتملة التي قد تنشأ عن التلاعب بالروبوتات استخدام هذه الأجهزة في تفعيل حوادث سير متعمدة باستخدام السيارات ذاتية القيادة، أو تفعيل الهجمات عبر الروبوتات العسكرية، بالإضافة إلى التجسس أو استخدام الروبوتات لصدم البشر أو حتى تنفيذ هجمات بواسطة المتفجرات. هذه الأنواع من الهجمات قد تكون كارثية وتعرض حياة البشر للخطر.
التحديات التي تواجه الأبحاث في هذا المجال
رغم التقدم الكبير في مجال الذكاء الاصطناعي والروبوتات، إلا أن هناك تحديات كبيرة تواجه الشركات والباحثين في التصدي لمخاطر التلاعب بهذه الأنظمة. أشار جورج باباس، العميد المشارك للبحوث في كلية الهندسة بجامعة بنسلفانيا، إلى أن “الروبوتات المدعومة بالذكاء الاصطناعي ليست آمنة بما يكفي عند دمجها مع العالم المادي، مما يثير القلق بشأن استخدامها في أغراض خبيثة”.
وأوضح أن الفجوة بين مجالي البحث في اختراق الروبوتات والتحكم بها من جهة، والبحث في النماذج اللغوية الكبيرة من جهة أخرى، قد جعلت شركات الروبوتات بطيئة في التعرف على ثغرات التلاعب بنماذج الذكاء الاصطناعي. هذه الفجوة في البحث العلمي تؤدي إلى نقص في أبحاث الأمان المخصص لهذا النوع من التقنيات، مما يزيد من المخاطر المرتبطة بها.
تكنولوجيا الذكاء الاصطناعي: بين الفرص والمخاطر
بينما توفر التقنيات المعتمدة على الذكاء الاصطناعي في الروبوتات فرصًا هائلة لتحسين حياتنا وتسهيل العديد من المهام اليومية، إلا أن استخدامها في الأغراض غير الأخلاقية قد يرفع المخاطر إلى مستويات غير مسبوقة. كما أن التلاعب بالروبوتات المدعومة بالذكاء الاصطناعي قد يؤدي إلى نتائج مدمرة، على عكس التلاعب بالنماذج اللغوية في الأجهزة الرقمية مثل الحواسيب والهواتف الذكية، التي قد تؤدي فقط إلى خلق محتوى مضلل.
وأشار الباحثون إلى أن هناك حاجة ماسة لتطوير أنظمة دفاعية فعالة ومتكاملة لوقف هذا التلاعب وضمان أمان الروبوتات المعززة بالذكاء الاصطناعي. يتطلب ذلك تعاونًا وثيقًا بين شركات التكنولوجيا والأكاديميين والهيئات التنظيمية لتطوير حلول تكنولوجية تحمي الروبوتات من الوقوع في يد أطراف خبيثة قد تستخدمها لغايات خطيرة.
دعوة لتقنين واختبار أمان الروبوتات
من خلال هذه الدراسة، يتضح أن الروبوتات المعززة بالذكاء الاصطناعي تواجه تحديات أمنية جسيمة، ما يستدعي تدابير عاجلة لضمان استخدامها بشكل آمن. ويجب على السلطات المختصة وشركات التكنولوجيا والمطورين العمل معًا على وضع إطار قانوني وتنظيمي متكامل يمكنه ضمان أمان هذه الأنظمة، بحيث لا يتم استخدامها في أعمال تضر بالبشر أو تخلق تهديدات أمنية.
تُظهر هذه الأبحاث ضرورة التركيز على تطوير تقنيات دفاعية لتحصين الروبوتات ضد التلاعب واختراقاتها، من أجل ضمان بقاء هذه التكنولوجيا في خدمة الإنسانية وعدم استخدامها بشكل ضار.