آخر الأخبار
روبوت الدردشة ChatGPT يسرب بيانات التدريب ويعرض خصوصية المستخدمين للخطر

وجد باحثون في مختبر الذكاء الاصطناعي التابع لشركة جوجل، ديب مايند، طريقة سهلة من أجل كسر عملية “المحاذاة لروبوت الدردشة ChatGPT” المصممة لجعل روبوت الدردشة بالذكاء الاصطناعي يبقى داخل حواجز الحماية.
ووجد الباحثون أنهم يستطيعون إجبار روبوت الدردشة على نشر مقاطع كاملة من الأدبيات التي تحتوي على بيانات تدريبه، وذلك بكتابة أمر في الموجّه ومطالبة ChatGPT بتكرار كلمة، مثل “قصيدة” إلى ما لا نهاية.
كما يمكن أيضًا التلاعب بروبوت الدردشة من أجل إعادة إنتاج أسماء الأفراد وأرقام هواتفهم وعناوينهم، وهو ما يعد انتهاكًا للخصوصية مع عواقب وخيمة محتملة.
ويطلق الباحثون على هذه الظاهرة اسم “الحفظ المستخرج”، وهو هجوم يجبر روبوت الدردشة على الكشف عن الأشياء التي خزنها في الذاكرة.
ويمكن أن يؤدي هذا الاكتشاف إلى عواقب وخيمة، حيث يمكن استخدام هذه الطريقة لنشر معلومات حساسة أو ضارة، أو لإنشاء محتوى مسيء أو مضلل.
يحتاج مطورو ChatGPT إلى إيجاد طريقة لمعالجة هذه المشكلة، وإلا فإن روبوت الدردشة قد يعرض خصوصية المستخدمين للخطر.
هذا الاكتشاف مهم لأنه يسلط الضوء على المخاطر المحتملة لاستخدام روبوتات الدردشة بالذكاء الاصطناعي. من المهم أن نكون على دراية بهذه المخاطر عند استخدام هذه الروبوتات، وأن نتأكد من استخدامها بطريقة آمنة ومسؤولة.