موجة جديده من النماذج المفتوحة المصدر: الصين تهيمن على المشهد وتتفوق على النماذج المغلقة

نماذج Qwen3-2507: قفزة نوعية في التفكير والبرمجة

أطلقت شركة Alibaba مؤخراً سلسلة نماذج Qwen3-235B-A22B-2507 والتي تُعتبر أقوى النماذج المفتوحة المصدر حتى الآن[1][2]. هذه النماذج تأتي بمواصفات تقنية مذهلة:

  • 235B مع 22B فعالة باستخدام معمارية Mixture of Experts (MoE)
  • دعم 256K context length
  • نسختان رئيسيتان: Instruct-2507 للمحادثات العامة و Thinking-2507 للتفكير المعقد
  • نسخه مصغرة للتشغيل المحلي Qwen3-30B-A3B-Instruct-2507 بحجم 30b.

الأداء في المعايير القياسية:

  • AIME25: 92.3% (منافس قوي لـ OpenAI O3 بـ 92.7%)
  • LiveCodeBench v6: 74.1% للنسخة المفكرة، 51.8% للنسخة العادية
  • MMLU-Pro: 84.4% (قريب من DeepSeek-R1 بـ 85.0%)[2:1]

GLM-4.5: التفكير الهجين وقدرات Agentic

شركة Zhipu AI الصينية غيرت اسمها ل Z.ai وأطلقت GLM-4.5 كسلسلة نماذج رأده جديدة تدمج التفكير والبرمجة في نموذج واحد [3]:

المواصفات التقنية:

  • GLM-4.5: 355B total / 32B active parameters
  • GLM-4.5-Air: 106B total / 12B active parameters
  • 128K context length مع دعم native function calling

الميزة الفريدة - Hybrid Reasoning:

  • Thinking mode: للمهام المعقدة والتفكير العميق
  • Non-thinking mode: للردود السريعة منخفضة الـ latency

الأداء في Agentic Workflows

  • تفوق على Claude-4-Opus في BrowseComp بنسبة 26.4% مقابل 18.8%
  • مُطابق لـ Claude 4 Sonnet في τ-bench و BFCL-v3
  • معدل نجاح 90.6% في tool calling[3:1]

Qwen3-Coder-Flash: نموذج برمجة للاستخدام المحلي

النموذج الأصغر Qwen3-Coder-Flash مصمم خصيصاً للتشغيل المحلي على الأجهزة الشخصية[4]:

المواصفات:

  • 30.5B parameters مع 3.3B active أثناء المعالجة
  • MoE architecture مع تفعيل 8 experts لكل استعلام
  • 256K native context، قابل للتمديد إلى 1M tokens باستخدام YaRN
  • دعم 358 لغة برمجة
  • متطلبات تشغيل: 32GB أو 64GB RAM مع الـ quantization

فوائد النماذج المفتوحة, الاستضافات السريعة و الرخيصة

شركة Cerebras تقدم Qwen3-Coder (النسخة الكاملة) بسرعة 2000 tokens per second[5] - وهذا يعني إنتاج 1000 سطر JavaScript في 4 ثوانٍ فقط مقارنة بـ 80 ثانية على Claude 4 Sonnet! والأهم من ذلك: السعر أقل بـ 7 مرات من Claude 4 Sonnet[5:1].

Groq تقدم Kimi K2 بسرعة تزيد عن 400 TPS، أسرع بـ 40 مرة من الـ API الأصلي لـ Moonshot[6][7].

الهيمنة الصينية: نهاية عصر Mistral و Meta؟

بدأت هذه الموجة مع DeepSeek، لكن الآن يبدو أن المختبرات الصينية سحقت منافسيها من Mistral (فرنسا) و Meta’s Llama - النماذج التي بدأت حركة المصدر المفتوح[8][9].

حتى الخصائص التي كانت تُعتبر صعبة التقليد مثل الكتابة الابداعية ( Ai Slop قليل وفقاً لـ EQ-Bench) و agentic tool use لنماذج Claude تم مطابقتها أخيراً بواسطة Kimi K2.

OpenAI تؤجل وتختبر في الخفاء

بينما تتسارع الصين، اختارت OpenAI تأجيل إطلاق أول نموذج مفتوح المصدر لها لأسباب امنيه, لكن هناك نموذجان غامضان على OpenRouter:

Horizon Beta و Alpha

  • نماذج مخفيه لا نعرف مطورها
  • مقدمان مجاناً للاختبار العام والتدريب
  • مشتبه أنهما من OpenAI بسبب طريقة الكتابة والصياغة
  • لا يتصرفان مثل GPT-5 من لقطات الشاشة التي نشرها Sam Altman[10][11]

النموذجان لا يطابقان أسلوب GPT-5 المتوقع، و Horizon Alpha تم تفعيل الـ Reasoning mode له بالخطأ في البداية، مما يشير إلى أنه hybrid model.

ردود الفعل من المجتمع التقني

من خلال Twitter، المطورون متحمسون جداً لهذه التطورات:

  • @VictorTaelin يصف السرعات بأنها “مجنونة” مع Groq و Cerebras[6:1]
  • مجتمع Reddit LocalLLaMA يشيد بأداء Qwen3-235B ويصفه بأنه “أفضل نموذج مفتوح الأوزان”[12]
  • المطورون يقولون أن Qwen3-Coder-Flash يحقق نتائج مُرضية حتى كنموذج “صغير”[13]

الخلاصة: عصر جديد للذكاء الاصطناعي المفتوح

رغم أن هذه النماذج ضخمة جداً للتشغيل المحلي، فإن فوائد المصدر المفتوح تمنحنا أسعاراً وسرعات أفضل من موفري الـ inference. نحن نشهد تحولاً جذرياً في موازين القوى، حيث تقود الصين المشهد بنماذج تنافس وأحياناً تتفوق على أقوى النماذج التجارية.

هذا الموضوع تم كتابته بستخدام Claude 4 sonnet Thinking عبر منصة Perplexity.


  1. https://rits.shanghai.nyu.edu/ai/qwen3‑235b‑a22b‑instruct‑2507-alibabas-updated-235b-parameter-instruction-tuned-llm/ ↩︎

  2. 2025 Complete Guide: Qwen3-235B-A22B-Thinking-2507 - The New Benchmark for Open-Source Thinking Models - DEV Community ↩︎ ↩︎

  3. ‏Zhipu AI unveils GLM-4.5, a new frontier model series! 🧠💻🤖 Their latest flagship models, GLM-4.5 and GLM-4.5-Air, are engineered to unify reasoning, coding, and agentic capabilities in a single…‏ | ‏Heiko Hotz‏ ↩︎ ↩︎

  4. Qwen3 Coder Flash for Beginners: What You Need to Know - Ossels AI ↩︎

  5. Qwen3 Coder 480B is Live on Cerebras ↩︎ ↩︎

  6. https://x.com/VictorTaelin/status/1948744521501520052 ↩︎ ↩︎

  7. https://x.com/ArtificialAnlys/status/1945989223330549768 ↩︎

  8. Best Open Source LLMs of 2025 — Klu ↩︎

  9. Open Source Generative AI Models: LLaMA, Mistral, and Stable LM Compared ↩︎

  10. https://www.youtube.com/watch?v=CEcEM_xu_Uc ↩︎

  11. https://www.youtube.com/watch?v=rw9XB_CwtHc ↩︎

  12. Reddit - The heart of the internet ↩︎

  13. Reddit - The heart of the internet ↩︎

إعجابَين (2)

الprompt:

Write a post in Arabic about the recent crazy open source model release wave of models like the new qwen3 2507 reasoning and instruct models, GLM 4.5 and the smaller 4.5 air hybrid models and qwen3-coder-flash, a smaller version of the impressive qwen3-coder made to be run locally.
 
The Post is for an Arabic free and open source tech community, keep your post direct and consider that you are talking to a technical audience.
Don't use uncommon translations for technical terms, use English for terms such as Tokens, Parameters, and Mixture of experts, etc.

Mention the technical specifications for each model, their benchmarks, and performance in comparison to other models, and the crazy inference available like 2000 tps for qwen3-coder (NOT FLASH) by Cerebras while being 1/7 of the price!

Also note that these models are all from China, it started with Deepseek, but now it seems Chinese Labs have crushed any other model providers like Mistral from France and Meta's LLama, the models that started the open source model movement.
Even model styles thought to be hard to replicate like Claude models Lead in writing (low slop according to EQ-Bench) and agentic tool use were finally matched by Kimi K2.

Although these models are too big to run locally, the benefit of Open source give us better prices and speeds from inference providers.
like the crazy Inference by Cerebras 2000 tps for qwen3-coder (NOT FLASH( while being 1/7 of the price of claude 4 Sonnet!
Also 400 tps for Kimi K2 by Groq.

A worthy point is OpenAI choosing to delay the release for it's first Open source model.
There are now two new stealth models on Openrouter, Horizon Beta and Alpha, stealth meaning we don't know the vendor, but they offer it for free to test the model publicly and to do more training.

Both models are highly suspected to be from OpenAi, but also don't seem to behave the way GPT-5 is behaving from the screenshots posted by sama.
https://x.com/sama/status/1952071832972186018
Answer by Horizon beta (different style to the screenshot by Sam Altman)
https://x.com/theo/status/1952091471206916227
They also accidentally enabled Reasoning for Horizon Alpha when it initially dropped, meaning it's probably a hybrid model.
Use the video from theo for more information.

Use Twitter to find anecdotes and information about each model to gauge how people think about them.

Use these sources
https://news.smol.ai/issues/25-07-28-glm-45
https://simonwillison.net/2025/Jul/28/glm-45/
https://simonwillison.net/2025/Jul/31/qwen3-coder-flash/
https://simonwillison.net/2025/Jul/22/qwen3-235b-a22b-instruct-2507/
https://simonwillison.net/2025/Jul/25/qwen3-235b-a22b-thinking-2507/
https://z.ai/blog/glm-4.5

بامكانكم تجربه GLM 4.5 مجانا على موقع z.ai

و Qwen3

الإصدارات لا تتوقف، Qwen تعلن عن نموذج Qwen-image بتركيز خاص على النص داخل الصور، وجوده حسب كلامهم تنافس النموذج الرائد gpt-4o.