نماذج Qwen3-2507: قفزة نوعية في التفكير والبرمجة
أطلقت شركة Alibaba مؤخراً سلسلة نماذج Qwen3-235B-A22B-2507 والتي تُعتبر أقوى النماذج المفتوحة المصدر حتى الآن[1][2]. هذه النماذج تأتي بمواصفات تقنية مذهلة:
- 235B مع 22B فعالة باستخدام معمارية Mixture of Experts (MoE)
- دعم 256K context length
- نسختان رئيسيتان: Instruct-2507 للمحادثات العامة و Thinking-2507 للتفكير المعقد
- نسخه مصغرة للتشغيل المحلي
Qwen3-30B-A3B-Instruct-2507بحجم 30b.
الأداء في المعايير القياسية:
- AIME25: 92.3% (منافس قوي لـ OpenAI O3 بـ 92.7%)
- LiveCodeBench v6: 74.1% للنسخة المفكرة، 51.8% للنسخة العادية
- MMLU-Pro: 84.4% (قريب من DeepSeek-R1 بـ 85.0%)[2:1]
GLM-4.5: التفكير الهجين وقدرات Agentic
شركة Zhipu AI الصينية غيرت اسمها ل Z.ai وأطلقت GLM-4.5 كسلسلة نماذج رأده جديدة تدمج التفكير والبرمجة في نموذج واحد [3]:
المواصفات التقنية:
- GLM-4.5: 355B total / 32B active parameters
- GLM-4.5-Air: 106B total / 12B active parameters
- 128K context length مع دعم native function calling
الميزة الفريدة - Hybrid Reasoning:
- Thinking mode: للمهام المعقدة والتفكير العميق
- Non-thinking mode: للردود السريعة منخفضة الـ latency
الأداء في Agentic Workflows
- تفوق على Claude-4-Opus في BrowseComp بنسبة 26.4% مقابل 18.8%
- مُطابق لـ Claude 4 Sonnet في τ-bench و BFCL-v3
- معدل نجاح 90.6% في tool calling[3:1]
Qwen3-Coder-Flash: نموذج برمجة للاستخدام المحلي
النموذج الأصغر Qwen3-Coder-Flash مصمم خصيصاً للتشغيل المحلي على الأجهزة الشخصية[4]:
المواصفات:
- 30.5B parameters مع 3.3B active أثناء المعالجة
- MoE architecture مع تفعيل 8 experts لكل استعلام
- 256K native context، قابل للتمديد إلى 1M tokens باستخدام YaRN
- دعم 358 لغة برمجة
- متطلبات تشغيل: 32GB أو 64GB RAM مع الـ quantization
فوائد النماذج المفتوحة, الاستضافات السريعة و الرخيصة
شركة Cerebras تقدم Qwen3-Coder (النسخة الكاملة) بسرعة 2000 tokens per second[5] - وهذا يعني إنتاج 1000 سطر JavaScript في 4 ثوانٍ فقط مقارنة بـ 80 ثانية على Claude 4 Sonnet! والأهم من ذلك: السعر أقل بـ 7 مرات من Claude 4 Sonnet[5:1].
Groq تقدم Kimi K2 بسرعة تزيد عن 400 TPS، أسرع بـ 40 مرة من الـ API الأصلي لـ Moonshot[6][7].
الهيمنة الصينية: نهاية عصر Mistral و Meta؟
بدأت هذه الموجة مع DeepSeek، لكن الآن يبدو أن المختبرات الصينية سحقت منافسيها من Mistral (فرنسا) و Meta’s Llama - النماذج التي بدأت حركة المصدر المفتوح[8][9].
حتى الخصائص التي كانت تُعتبر صعبة التقليد مثل الكتابة الابداعية ( Ai Slop قليل وفقاً لـ EQ-Bench) و agentic tool use لنماذج Claude تم مطابقتها أخيراً بواسطة Kimi K2.
OpenAI تؤجل وتختبر في الخفاء
بينما تتسارع الصين، اختارت OpenAI تأجيل إطلاق أول نموذج مفتوح المصدر لها لأسباب امنيه, لكن هناك نموذجان غامضان على OpenRouter:
Horizon Beta و Alpha
- نماذج مخفيه لا نعرف مطورها
- مقدمان مجاناً للاختبار العام والتدريب
- مشتبه أنهما من OpenAI بسبب طريقة الكتابة والصياغة
- لا يتصرفان مثل GPT-5 من لقطات الشاشة التي نشرها Sam Altman[10][11]
النموذجان لا يطابقان أسلوب GPT-5 المتوقع، و Horizon Alpha تم تفعيل الـ Reasoning mode له بالخطأ في البداية، مما يشير إلى أنه hybrid model.
ردود الفعل من المجتمع التقني
من خلال Twitter، المطورون متحمسون جداً لهذه التطورات:
- @VictorTaelin يصف السرعات بأنها “مجنونة” مع Groq و Cerebras[6:1]
- مجتمع Reddit LocalLLaMA يشيد بأداء Qwen3-235B ويصفه بأنه “أفضل نموذج مفتوح الأوزان”[12]
- المطورون يقولون أن Qwen3-Coder-Flash يحقق نتائج مُرضية حتى كنموذج “صغير”[13]
الخلاصة: عصر جديد للذكاء الاصطناعي المفتوح
رغم أن هذه النماذج ضخمة جداً للتشغيل المحلي، فإن فوائد المصدر المفتوح تمنحنا أسعاراً وسرعات أفضل من موفري الـ inference. نحن نشهد تحولاً جذرياً في موازين القوى، حيث تقود الصين المشهد بنماذج تنافس وأحياناً تتفوق على أقوى النماذج التجارية.
هذا الموضوع تم كتابته بستخدام Claude 4 sonnet Thinking عبر منصة Perplexity.
https://rits.shanghai.nyu.edu/ai/qwen3‑235b‑a22b‑instruct‑2507-alibabas-updated-235b-parameter-instruction-tuned-llm/ ↩︎
2025 Complete Guide: Qwen3-235B-A22B-Thinking-2507 - The New Benchmark for Open-Source Thinking Models - DEV Community ↩︎ ↩︎
Zhipu AI unveils GLM-4.5, a new frontier model series! 🧠💻🤖 Their latest flagship models, GLM-4.5 and GLM-4.5-Air, are engineered to unify reasoning, coding, and agentic capabilities in a single… | Heiko Hotz ↩︎ ↩︎
Qwen3 Coder Flash for Beginners: What You Need to Know - Ossels AI ↩︎
Open Source Generative AI Models: LLaMA, Mistral, and Stable LM Compared ↩︎