علي بابا جروب تطلق تحديثًا جديدًا لنماذجها اللغوية Qwen 2.5
أعلنت شركة علي بابا جروب، العملاقة الصينية في مجال التكنولوجيا، عن إطلاق تحديث جديد لمجموعة نماذجها اللغوية Qwen 2.5، حيث تم تعديل وتحسين الشبكات العصبية الأساسية للاستجابة بشكل أفضل لمجموعة متنوعة من المهام بما في ذلك حل المشكلات الرياضية والتفاعل مع الأكواد البرمجية.
تأتي نماذج Qwen 2.5 في ستة أحجام مختلفة تتراوح بين 0.5B إلى 72B، مع التركيز الآن على فئات الحجم المتوسط (14B و32B) التي لم تكن متاحة من قبل. تم تدريب هذه النماذج باستخدام مجموعة بيانات موسعة تشمل 18 تريليون رمز (توكن)، مما يعزز من قدرتها على التعامل مع المعطيات المعقدة وفهم الهياكل الدقيقة بشكل أفضل.
كما أن النموذج الأساسي تم تدريبه بشكل خاص لحل المسائل الرياضية باستخدام مجموعة بيانات Qwen Math Corpus v2 التي تضم تريليون رمز. ويأتي أيضًا مع نموذج إضافي تحت اسم Qwen2.5-Math-Instruct لتلبية احتياجات المستخدمين في هذا المجال.
وفيما يتعلق بقدرات البرمجة، تم تطوير نموذج خاص لتوليد الكود البرمجي بأحجام 1.5B و7B و32B. تم تدريب هذا النموذج على مجموعة بيانات بلغت 5.5 تريليون توكن، مما يمكنه من فهم وتنفيذ مجموعة واسعة من المهام المرتبطة بالتشفير، بما في ذلك التصحيح والإكمال التلقائي.
لمزيد من المعلومات حول نماذج Qwen 2.5، يمكن للمستخدمين زيارة الموقع الرسمي للمشروع، كما تتوفر النماذج على منصات GitHub وHugging Face.