موظفون في جوجل و OpenAI يُحذّرون من مخاطر جسيمة ويطالبون بحماية المبلغين عن المخالفات

موظفون في جوجل و OpenAI يُحذّرون من مخاطر جسيمة ويطالبون بحماية المبلغين عن المخالفات

في خطوة غير مسبوقة، هزّ موظفون سابقون وحاليون في شركتي OpenAI و DeepMind، التابعتين لجوجل، عالم الذكاء الاصطناعي بتوجيه رسالةٍ مشتركةٍ إلى الإدارات والهيئات التنظيمية، حذّروا فيها من مخاطر جسيمة مرتبطة بتطوير هذا المجال، وطالبوا بتعزيز حماية المبلغين عن المخالفات.

مخاوف جماعية:

عبّر 13 موظفًا من كلا الشركتين، الرائدتين في أبحاث الذكاء الاصطناعي، عن قلقهم من مجموعة من المخاطر التي قد يُنذر بها التطور المتسارع في هذا المجال، وتضمنت الرسالة:

  • ترسيخ التفاوتات: عبّر الموظفون عن خوفهم من أن يؤدي الذكاء الاصطناعي إلى تفاقم التفاوتات الاجتماعية والاقتصادية القائمة، ممّا قد يُعمّق الفجوة بين فئات المجتمع المختلفة.
  • انتشار المعلومات المضللة: حذّر الموظفون من إمكانية استخدام تقنيات الذكاء الاصطناعي لنشر المعلومات المضللة على نطاق واسع، ممّا قد يُهدد استقرار المجتمعات وسلامتها.
  • فقدان السيطرة: عبّر الموظفون عن قلقهم من إمكانية فقدان السيطرة على أنظمة الذكاء الاصطناعي المستقلة، ممّا قد يُؤدّي إلى عواقب وخيمة، بما في ذلك خطر انقراض البشرية، كما ورد في نصّ الرسالة.

انتقاد شركات الذكاء الاصطناعي:

وجّه الموظفون انتقاداتٍ حادةً لشركات الذكاء الاصطناعي التي تُسارع في عمليات التطوير دون شفافية، مُتّهمين إيّاها بامتلاك "دوافع مالية قوية" تُغليب مصالحها على سلامة البشرية.

وشدّدوا على ضرورة نشر المعلومات حول إجراءات الحماية المتّخذة ومستويات المخاطر المرتبطة بعمليات التطوير.

دعوة لحماية المبلغين عن المخالفات:

طالب الموظفون بتعزيز حماية المبلغين عن المخالفات، مُشيرين إلى الاتفاقيات السرية الصارمة التي تُفرضها بعض الشركات على موظفيها، وتُقيّد قدرتهم على التعبير عن مخاوفهم.

واعتبروا أنّ دور الموظفين الحاليين والسابقين أساسيّ لكشف هذه المخاطر "في ظل غياب رقابة حكومية فعّالة على هذه المؤسسات".

مطالب محددة:

حدّدت الرسالة مطالب محددة لضمان سلامة تطوير الذكاء الاصطناعي، منها:

  • ضمان حماية فعّالة للمبلغين عن المخالفات: يجب على شركات الذكاء الاصطناعي توفير بيئة آمنة للموظفين للإبلاغ عن المخاطر دون خوف من الانتقام.
  • منع فرض اتفاقيات تقيّد حرية التعبير: يجب ألّا تُفرض على الموظفين أيّ قيود تمنعهم من توجيه الانتقادات البنّاءة.
  • توفير آلية لإخفاء هوية المبلغين: يجب توفير آلية موثوقة لإخفاء هوية الموظفين الذين ينقلون مخاوفهم إلى الجهات المعنية، مع ضمان حماية الأسرار التجارية.
  • الامتناع عن اتخاذ إجراءات انتقامية: يجب ألّا تتّخذ الشركات أيّ إجراءات انتقامية بحق الموظفين الذين يكشفون معلومات سرية تتعلق بالمخاطر، وذلك بعد استنفاد كافة الطرق الأخرى.

تُمثّل رسالة موظفي OpenAI و DeepMind خطوة جريئة في اتّجاه تأمين مستقبل الذكاء الاصطناعي، وتُؤكّد على ضرورة وضع معايير أخلاقية صارمة لتنظيم تطوير هذا المجال، وضمان سلامة واستفادة البشرية منه.

وتُشير الرسالة إلى أنّ التعاون بين جميع الأطراف المعنية، من شركات وحكومات ومجتمع مدني، هو السبيل الوحيد لضمان مستقبلٍ الذكاء الاصطناعي.

.

المزيد من الأخبار من - sawaliftech