آخر الأخبار
ميتا تطلق تجربة ذكاء اصطناعي محمية بالخصوصية والأمان في واتساب

في خطوة جديدة تعكس إدراك شركة ميتا لحساسية خصوصية المستخدمين في عصر الذكاء الاصطناعي، أعلنت الشركة عن إطلاق ميزة “المعالجة الخاصة” (Private Processing) في تطبيق واتساب، والتي تتيح التفاعل مع مساعد الذكاء الاصطناعي الخاص بميتا (Meta AI) ضمن جلسات مؤقتة ومشفرة بالكامل، لا يمكن لأي جهة – بما في ذلك ميتا نفسها – الاطلاع على محتواها.
الميزة الجديدة، التي من المقرر أن تبدأ بالوصول إلى المستخدمين خلال الأسابيع المقبلة، تأتي في وقت تشهد فيه تطبيقات الذكاء الاصطناعي تزايدًا مطردًا في الاستخدام، يقابله قلق متصاعد بشأن حماية البيانات وخصوصية المحادثات الشخصية.
أكدت ميتا أن استخدام ميزة “المعالجة الخاصة” سيكون اختياريًا بالكامل، حيث يمكن للمستخدمين تفعيلها يدويًا عند الحاجة إلى الاستفادة من خدمات الذكاء الاصطناعي – مثل تلخيص المحادثات أو الردود الذكية – داخل جلسة مشفّرة.
وبحسب ميتا، فإن محتوى الرسائل يُحذف تلقائيًا بمجرد انتهاء الجلسة، مما يضمن عدم تخزين أي بيانات يمكن الوصول إليها لاحقًا حتى في حال تعرّض النظام للاختراق.
من الناحية التقنية، أوضحت الشركة أن الطلبات الخاصة التي يُرسلها المستخدم إلى مساعد Meta AI ضمن ميزة “المعالجة الخاصة” تمرّ عبر مزود خارجي باستخدام بروتوكول OHTTP، وهو بروتوكول تشفير حديث يُستخدم لإخفاء عنوان IP الخاص بالمستخدم، على نحو يشبه ما تعتمده آبل في ميزة “Private Cloud Compute”.
هذا التوجه يعكس حرصًا متزايدًا لدى عمالقة التكنولوجيا على تبنّي تقنيات الخصوصية التفاضلية، والتي تسعى إلى تحقيق توازن بين تقديم الخدمات الذكية للمستخدمين وحمايتهم من التتبع أو استغلال البيانات.
ورغم التشابه في المفهوم العام بين ميتا وآبل، إلا أن تقارير تقنية نبهت إلى فارق جوهري بين النهجين: فبينما تُعالج جميع طلبات الذكاء الاصطناعي في واتساب داخل خوادم ميتا، وتتطلب تفعيلًا يدويًا للخصوصية، تعتمد آبل على المعالجة المحلية داخل الجهاز بشكل افتراضي، ولا تلجأ إلى خوادمها إلا عند الضرورة، ما يجعل نهجها أكثر تحفظًا في حماية البيانات.
وفي خطوة تعزز من مصداقية الشركة، أعلنت ميتا أن ميزة “المعالجة الخاصة” ستخضع لمراجعة مستقلة من جهات محايدة، للتحقق من امتثالها لمعايير الأمان والخصوصية. كما أشارت إلى أن النظام الجديد أُدرج ضمن برنامجها الخاص بمكافآت اكتشاف الثغرات الأمنية، بهدف تحفيز الخبراء على الإبلاغ عن أي خلل قد يُهدد سلامة المستخدمين.
ووعدت ميتا كذلك بنشر ورقة هندسية تقنية مفصلة تُبيّن الآليات الأمنية المُعتمدة، وذلك بالتزامن مع اقتراب موعد الإطلاق الرسمي، في خطوة تستهدف تعزيز الشفافية والثقة لدى المستخدمين والمطوّرين على حد سواء.
مع تنامي الاعتماد على أدوات الذكاء الاصطناعي في التطبيقات اليومية، تبرز مسألة الخصوصية كعنصر حاسم في قبول المستخدمين لهذه التقنيات. وتُدرك ميتا، التي واجهت في السابق انتقادات واسعة بشأن استخدام البيانات، أن بناء الثقة يتطلب التزامات واضحة، وآليات تقنية تضمن السيطرة الكاملة للمستخدم على بياناته.
ولهذا، تسعى ميتا من خلال ميزة “المعالجة الخاصة” إلى توجيه رسالة مفادها: الذكاء الاصطناعي يمكن أن يكون ذكيًا… وآمنًا في آنٍ واحد.