آخر الأخبار
هل نحن أمام فوضى انتخابية محتملة بسبب التزييف العميق ؟

يواجه المتسابقون في السباق الرئاسي للفوز بالانتخابات الرئاسية في الولايات المتحدة هذا العام خطر التعرض لسيل من المعلومات المضللة التي يقف وراءها الذكاء الاصطناعي، إذ يثير اتصال صوتي بواسطة روبوت انتحل شخصية الرئيس جو بايدن القلق، خاصة فيما يتعلق بتسجيلات صوتية محتملة مزيفة.
في الرسالة الصوتية عبر الهاتف التي انتحل فيها الصوت الذي يُشبه صوت جو بايدن، ذُكر بعبارة “يا له من كلام فارغ”، وهي إعادة لإحدى عباراته المعروفة.
حث الاتصال بواسطة الروبوت سكان نيوهامشير على عدم المشاركة في الانتخابات التمهيدية للحزب الديمقراطي الشهر الماضي، مما دفع سلطات الولاية إلى فتح تحقيق في قمع الناخبين.
هذا الواقع أثار مطالبات من الناشطين بتشديد القيود على أدوات الذكاء الاصطناعي التوليدي أو حظر الاتصالات بواسطة الروبوتات بشكل كامل.
تضليل وسوء استخدام للتطبيقات
يخشى كثير من الباحثون المتخصصون في التضليل من انتشار سوء استخدام التطبيقات التي تستند إلى الذكاء الاصطناعي في الانتخابات الحاسمة، نظرًا لانتشار أدوات استنساخ الأصوات بتكلفة منخفضة والتي يسهل استخدامها ويصعب تتبعها.
حيث قال الرئيس التنفيذي والمؤسس المشارك لشركة “بندروب” للأمن الإلكتروني، فيجاي بالاسوبراماتيان، لـ”فرانس برس”: “هذا بالتأكيد رأس جبل الجليد”، مشيرًا إلى أنه يمكن توقع رؤية المزيد من عمليات التزييف العميق خلال دورة الانتخابات الحالية.
وأشار أيضا أن تحليل مفصل نشرته “بندروب” إلى استخدام نظام تحويل النص إلى كلام، الذي طورته شركة “إيليفن لابز”، لتنفيذ الاتصال بواسطة الروبوت بصوت يُشبه صوت جو بايدن.
تأتي هذه الفضيحة في وقت يسخّر فيه ناشطون من الحزبين أدوات الذكاء الاصطناعي لنقل رسائل فعّالة خلال الحملات الانتخابية، في حين يستثمر المستثمرون في مجال التكنولوجيا ملايين الدولارات في شركات استنساخ الأصوات الناشئة.
رفض فيجاي بالاسوبراماتيان الكشف عما إذا كانت “بندروب” قد شاركت استنتاجاتها مع “إيليفن لابز”، التي أعلنت الشهر الماضي عن حزم تمويل من المستثمرين بقيمة 1.1 مليار دولار وفقًا لتقدير “بلومبرغ”.
لم ترد “إيليفن لابز” على طلبات “فرانس برس” المتكررة للحصول على تعليق. يُشير موقع الشركة إلى خدمة مجانية لتحويل النص إلى كلام بهدف “إنشاء أصوات ذكاء اصطناعي طبيعية على الفور بأي لغة”.
توجيهات السلامة التابعة للشركة تسمح للمستخدمين بتوليد نسخ لأصوات شخصيات سياسية مثل دونالد ترامب دون إذنهم، شريطة أن تكون هذه النسخ لأغراض “الفكاهة أو السخرية” وتوضح للمستمع أن ما يسمعه هو محاكاة ساخرة وليس محتوى أصلي.
“فوضى التزييف العميق”
تفكّر الجهات الناظمة في الولايات المتحدة بجعل الاتصالات بواسطة الروبوتات التي يولدها الذكاء الاصطناعي مخالفة للقانون، وهي مساع أعطاها اتصال بايدن الزائف زخماً جديدًا.
قال رئيس مجموعة “بابليك سيتيزن” الناشطة روبرت وايزمان: “وصلت لحظة التزييف العميق السياسي”. وأضاف: “على صانعي السياسات المسارعة لفرض إجراءات حماية وإلا فنواجه فوضى انتخابية. تذكر حالة التزييف العميق في نيوهامشير بالطرق العديدة التي يمكن للتزييف العميق من خلالها إحداث إرباك”.
كما يخشى باحثون من تأثير أدوات الذكاء الاصطناعي التي تُنتج تسجيلات مصورة ونصوصًا تبدو حقيقية إلى الحد الذي يصعّب على الناخبين التفريق بين الحقيقة والخيال، ما يقوّض الثقة في العملية الانتخابية.
لكن المقاطع الصوتية المزيفة المستخدمة لانتحال هويات شخصيات معروفة أو سياسيين حول العالم تعد الأكثر إثارة للقلق.
قال محلل السياسات البارز في “مركز الديمقراطية والتكنولوجيا” تيم هاربر: “من بين جميع الوسائل (فيديو أو صور أو مقاطع صوتية) التي يمكن للذكاء الاصطناعي استخدامها لقمع الناخبين، فإن المقاطع الصوتية هي الأكثر خطورة”. وأضاف: “من السهل استنساخ صوت بواسطة الذكاء الاصطناعي ومن الصعب التعرّف عليه”.
“سلامة الانتخابات”
تعقّد سهولة صناعة ونشر محتوى صوتي مزيّف مشهداً سياسياً يعاني أساساً من الاستقطاب الشديد، ما يقوّض الثقة في الإعلام ويمكن أي شخص من زعم أن الأدلة المبنية على حقائق “هي مفبركة”، وفق ما قال الرئيس التنفيذي لـ”بلاكبرد أيه آي” Blackbird.AI وسيم خالد لـ”فرانس برس”.
تسود هذه المخاوف في وقت تنتشر أدوات الذكاء الاصطناعي الصوتية بسرعة أكبر من البرامج المخصصة لرصدها.
“ستريم فويس”
كشفت شركة “بايت دانس” الصينية المالكة لمنصة “تيك توك” عن “ستريم فويس”، وهي أداة ذكاء اصطناعي تحوّل بالوقت الحقيقي صو
“وأفاد بالاسوبراماتيان بأنه ‘على الرغم من أن المهاجمين استخدموا إيليفن لابز هذه المرة، يرجّح بأن يكون نظام ذكاء اصطناعي توليدي آخر في الهجمات المستقبلية'”.
وأوصى بالاسوبراماتيان وغيره من الباحثين بإدخال دمغات صوتية أو تواقيع رقمية على هذه الأدوات من أجل الحماية ووضع قواعد تجعلها متاحة للمستخدمين الذين يتم التحقق منهم فحسب.
وأفاد هاربر: “حتى بهذه الإجراءات، فإنه من الصعب والمكلف جداً اكتشاف متى يتم استخدام هذه الأدوات لصناعة محتوى مضر ينتهك شروط الخدمة”.
وأضاف قالا: “يتطلب الأمر استثمارا في الثقة والسلامة والتزاما ببناء (البرامج) مع اعتبار سلامة الانتخابات خطرا مركزيا”.