آخر الأخبار
شات جي بي تي تخطى الحدود: تقليد الأصوات بدون إذن يحول المحادثة إلى كابوس!
كشفت شركة OpenAI النقاب عن تقرير “بطاقة تقييم” لنموذجها اللغوي الكبير الأحدث GPT-4o، والذي يكشف عن المخاطر الأمنية المحتملة لهذا النظام وكيفية الحد منها. ومن بين المخاطر المرعبة التي تم الكشف عنها، قدرة شات جي بي على تقليد أصوات المستخدمين دون إذنهم وذلك من خلال خاصية “وضع الصوت المتقدم”.
وفقًا لتقرير آرس تكنيكا، وخلال مرحلة الاختبار، لاحظت OpenAI قيام شات جي بي بتقليد أصوات المستخدمين بشكل مفاجئ وغير مرغوب فيه. على سبيل المثال، في المقطع المرفق، نسمع شات جي بي يغير نبرته فجأة ويقلّد صوت المستخدم بعد صيحة “لا!” دون سبب واضح.
أثار هذا الاكتشاف موجة من ردود الفعل المستنكرة، حيث وصف عالم البيانات ماكس وولف ما حدث بأنه “تسريب لأحداث الموسم القادم من مسلسل Black Mirror”.
تقليد الصوت: خطر يهدد الخصوصية
كشفت OpenAI عن قدرة نموذجها على توليد “صوت اصطناعي يشبه الصوت البشري”. وقد حذرت الشركة من إمكانية استغلال هذه التقنية في عمليات الاحتيال وانتشار المعلومات المضللة.
الأمر لا يقتصر على تقليد الأصوات البشرية، بل إن GPT-4o قادر على محاكاة “التعبيرات الصوتية غير اللفظية” مثل المؤثرات الصوتية والموسيقى.
يحدث تقليد الصوت عن طريق التقاط ضوضاء جانبية من المستخدم، مما يخدع شات جي بي ويجعله يعتقد بأن الصوت جزء من المحادثة، فيقوم بتقليده بطريقة مشابهة لعمليات استغلال نظام الإيعاز (Prompt Injection Attacks).
لحسن الحظ، صنفت OpenAI مخاطر تقليد الصوت غير المقصود على أنها “ضئيلة”، كما قامت الشركة بمنع توليد الأصوات غير المصرح بها عن طريق تقييد المستخدم بالأصوات التي تم إنشاؤها مسبقا بالتعاون مع ممثلين صوتيين.
صرح الباحث في مجال الذكاء الاصطناعي سيمون ويلسون بأن “بطاقة التقييم تشير إلى استحالة خداع النظام لاستخدام صوت غير معتمد، وذلك بفضل نظام الحماية القوي الذي طبقته OpenAI”.
وعلى الرغم من ذلك، أبدى ويلسون بعض الأسف على قيود النظام، حيث قال: “تخيل المتعة التي كنا سنحصل عليها مع النموذج غير المقيد، كنت أتطلع إلى إخراجه ليغني أغاني سخيفة لكلبي!”.