آخر الأخبار
مخاوف من ضعف الأمان في نموذج DeepSeek R1 وقدرته على توليد محتوى ضار

كشفت تقارير حديثة عن أن نموذج الذكاء الاصطناعي R1، الذي تطوره الشركة الصينية الناشئة DeepSeek، يعاني من ثغرات أمنية قد تعرضه للتلاعب والاختراق بشكل أكبر من منافسيه. وقد أثارت هذه التقارير مخاوف بشأن قدرة النموذج على توليد محتوى ضار أو غير قانوني، مما يزيد من التحديات الأمنية المتعلقة باستخدام الذكاء الاصطناعي.
وفقًا لاختبارات أمنية، تبين أن النموذج عرضة لعمليات خداع تتيح له إنتاج تعليمات خطيرة، مثل إرشادات لتنفيذ هجمات بأسلحة بيولوجية وأفكار قد تشجع على إيذاء النفس بين المراهقين. وأشار نائب الرئيس الأول في وحدة Unit 42 من شركة Palo Alto Networks، سام روبين، إلى أن النموذج يعاني من ضعف في الحماية ضد “الاختراق” أو ما يُعرف بتقنية “Jailbreaking”، التي تتيح تجاوز الفلاتر الأمنية للنظام.
في اختبار آخر أجرته صحيفة “وول ستريت جورنال”، نجح فريق الصحيفة في دفع النموذج إلى تصميم حملة على وسائل التواصل الاجتماعي تستغل مشاعر المراهقين من خلال تضخيم نقاط ضعفهم العاطفية باستخدام الخوارزميات. كما كشف النموذج عن تعليمات لتنفيذ هجوم بأسلحة بيولوجية وصاغ بيانًا مؤيدًا للأحزاب المتطرفة، فضلًا عن إنتاج رسالة تصيّد إلكتروني مرفقة ببرمجيات خبيثة. في المقابل، عند إجراء نفس الاختبارات على ChatGPT، رفض النموذج تقديم أي إجابات أو الامتثال للأوامر.
كما أكدت التقارير السابقة أن تطبيق DeepSeek يتجنب مناقشة القضايا السياسية الحساسة المتعلقة بالصين، مثل علاقتها بتايوان، مما يثير تساؤلات حول قدرة النظام على التفاعل مع القضايا المعقدة بشكل آمن وموثوق.
من جهته، صرح داريو أمودي، الرئيس التنفيذي لشركة أنثروبيك، بأن أداء DeepSeek كان “الأسوأ” في اختبار الأمان المتعلق بالأسلحة البيولوجية، مما يعكس القلق الكبير بشأن قابلية النماذج التابعة لـDeepSeek للتلاعب أو إساءة الاستخدام.