قامت جوجل بالكشف عن نسخة من مساعد الذكاء الاصطناعي، Gemma المخصصة للباحثين الراغبين في تشغيل نماذج الذكاء الاصطناعي على اجهزتهم بدلا من الستخدامه على الخدمات السحابية.
تم تصميم مساعد الذكاء الاصطناعي Gemma داخل شركة Deepmind التابعة لشركة جوجل بالمملكة المتحدة بالتعاون مع فرق اخرى داخل شركة جوجل.
ويعتبر نموذج Gemini أكبر من نموذج Gemma الا انهما يشتركان ببعض مكونات البنية التحتية والمكونات التقنية الاخرى.
كما قامت جوجل بطرح نموئجين من مساعدها الجديد للذكاء الاصطناعي الموجه للباحثين يحملان اسم Gemma 2B و Gemma 7B.
وحسّنت جوجل نموذجها الجديد للعمل على بطاقات معالجة الرسومات من شركة إنفيديا بالإضافة إلى Google Cloud TPUs، وهي معالجات جوجل التي تشغل مهام الذكاء الاصطناعي في سحابة Google Cloud.
وتقول جوجل إن نموذج Gemma بإصداريه يُعد أصغر من الناحية الفنية مقارنة بنماذج اللغات الكبيرة الأخرى (LLMs)، لكنها زعمت أنه “يتفوق عليها على نحو ملحوظ في القياسات الرئيسية”، ومنها نموذج Llama 2 من شركة ميتا.
وتعمل جوجل على إتاحة نموذج Gemma الآن للباحثين مجانًا عبر منصتي Kaggle و Colab التابعتين لها، كما توفر أيضًا رصيدًا مجانيًا للباحثين لاستخدام النموذج سحابيًا عبر Google Cloud.
.