📁 آخر الأخبار

هل تنجح الصين في إنهاء هيمنة إنفيديا بشريحة ذكاء اصطناعي جديدة من علي بابا؟

 الصين تطور شريحة ذكاء اصطناعي جديدة لتقليل الاعتماد على إنفيديا

بحسب تقارير موثوقة، طوّرت علي بابا شريحة جديدة للذكاء الاصطناعي مُصنَّعة داخل الصين وتخضع حاليًا للاختبارات. الهدف المعلن هو تقليل الاعتماد على شرائح إنفيديا، خاصة H20 لكن ما زالت تفاصيل الأداء والفئة المستهدفة (تدريب أم استدلال) غير مكتملة. 

_الصين تطور شريحة ذكاء اصطناعي جديدة لتقليل الاعتماد على إنفيديا
الصين تطور شريحة ذكاء اصطناعي جديدة لتقليل الاعتماد على إنفيديا

حتى الآن، تميل المؤشرات إلى أنها موجهة للاستدلال (Inference) أكثر من كونها مسرِّعًا رئيسيًا لتدريب النماذج العملاقة، ما يعني أن الهيمنة الكاملة لإنفيديا على شرائح الذكاء الاصطناعي لن تتبدّد قريبًا، لكنها قد تتعرّض للتآكل داخل السوق الصينية إذا نجحت علي بابا في التنفيذ على المستويين التصنيعي والبرمجي. 

لماذا تهيمن إنفيديا على سباق شرائح الذكاء الاصطناعي؟

العتاد + النظام البرمجي:

 تفوّق إنفيديا ليس في العتاد فقط؛ إنما في منظومة CUDA البرمجية التي تشكّل “قفصًا ذهبيًا” يَصعُب مغادرته. معظم أطر التعلم العميق والأدوات الهندسية مُحسّنة لـCUDA، ما يمنح إنفيديا أفضلية سرعة وأُلفة للمطوّرين. هذا “القفل البرمجي” أحد أهم الحواجز أمام أي منافس جديد. 

تفضيل المطورين في الصين نفسها

 حتى مع القيود، يفضّل مطوّرون صينيون كُثُر العمل على عتاد إنفيديا، ويقومون بخطوات معقدة للوصول إليه لتدريب نماذجهم. 

يد متقدّمة وتغليف متطوّر
إنفيديا تركب موجة قدرات المصانع (Foundries) والتغليف المتقدّم لدى TSMC، وهو عنق زجاجة يصعب على الوافدين الجدد تجاوزه بسرعة. تقارير السوق الحديثة تضع TSMC في الصدارة بفارق كبير. 

ماذا نعرف وما لا نعرف عن شريحة علي بابا حتى الآن؟

المؤكد حتى لحظة الكتابة:

  • الشريحة تحت الاختبار داخل علي بابا، ولم تُطرح تجاريًا بعد. 
  • التصنيع محلي عبر شركة صينية (على عكس معالجات علي بابا السابقة التي تولّت تصنيعها TSMC). 
  • الفئة المستهدفة مبدئيًا: الاستدلال (Inference) عبر نطاق أوسع من سيناريوهات الذكاء الاصطناعي؛ ولم تُحسم قدرتها على تدريب النماذج الكبيرة. 

النقاط الغامضة:

  1. القدرة الحقيقية على تدريب نماذج بمليارات المعاملات مقارنةً بـH20/H100/Blackwell.
  2. منظومة البرمجيات: هل ستتبنّى توافقية مع CUDA (عبر طبقات ترجمة) أم ستراهن على بيئات بديلة؟
  3. الطاقة، الذاكرة ذات النطاق العريض، الترابط الشبكي (NVLink/InfiniBand بدائلها)، وكفاءة التغليف.

ملاحظة سياقية مهمة: في 2025، حُظِرَت مبيعات H20 داخل الصين لفترة وجيزة، قبل أن تسمح واشنطن باستئنافها في يوليو 2025؛ كما أُشير إلى اتفاق مشاركة نسبة من إيرادات مبيعات H20 مع الحكومة الأمريكية. هذا أعاد جزءًا من حيوية توريد إنفيديا، لكنه حفّز كذلك الدفع لتبنّي بدائل محلية. 

كيف قد تؤثر شريحة علي بابا على سوق شرائح الذكاء الاصطناعي في الصين؟

كيف قد تؤثر شريحة علي بابا على سوق شرائح الذكاء الاصطناعي في الصين؟
كيف قد تؤثر شريحة علي بابا على سوق شرائح الذكاء الاصطناعي في الصين؟

  • تقليل الاعتماد على H20 في الاستدلال الإنتاجي: إذا حقّقت الشريحة أداءً/واطًا جيدًا مع كلفة تنافسية، يمكن لمراكز بيانات علي بابا (وخدمات السحابة لديها) تحويل جزء معتبر من أعباء الاستدلال محليًا، ما يخفف الضغط على سلاسل توريد إنفيديا داخل الصين. 
  • التدريب قصة أخرى: تدريب النماذج العملاقة يحتاج تراكيب ذاكرة ونطاقًا شبكيًا هائلين ونضجًا برمجيًا عاليًا هنا ما زالت إنفيديا متقدّمة؛ ومع ذلك، أي تقدّم مرحلي لدى علي بابا أو شركاء محليين سيعني تقليصًا تدريجيًا للاعتماد الخارجي. 
  • زخم السياسة الصناعية: التراخي النسبي في القيود الأميركية على H20 خلال يوليو 2025 لم يُنهِ دافع بكين للاكتفاء الذاتي؛ بل زاد وتيرة “الخطة ب” شرائح محلية تُلائم بيئة أمنية وتنظيمية محلية. 

التصنيع هو عنق الزجاجة الحقيقي لثورة شرائح الذكاء الاصطناعي

  1. تصنيع الشرائح المتقدّمة محصور اليوم في عدد محدود جدًا من المسابك الرائدة على العُقَد الحديثة (Sub-5nm)، أبرزها TSMC وSamsung ومعهما Intel على مسار 18A/2nm. الوصول إلى عُقد ناضجة وإنتاجية عالية ليس قرارًا تقنيًا فحسب، بل سلسلة استثمارات ومعدات ومعارف متراكمة. 
  2. البيانات الأحدث تُظهر هيمنة TSMC على سوق السباكة المتقدّمة بحصة تُقارب 70% في الربع الثاني 2025وهو ما يفسّر لماذا تحاول جميع الشركات ومنها إنفيديا حجز طاقة تصنيع لديها مبكرًا. 

البرمجيات… نصف المعركة في شرائح الذكاء الاصطناعي

  1. CUDA هو الفارق الخفي: ملايين المطورين، مستودعات ضخمة من الشيفرات المحسّنة، وأدوات منظومية كاملة. أي بديل يجب أن يقدّم تكافؤًا وظيفيًا وأدائيًا أو طبقات توافق مجدية—وإلا سيخسر السباق قبل أن يبدأ. 
  2. ماذا يعني ذلك لعلي بابا؟ إذا استهدفت الشريحة الاستدلال، فيمكن بناء مكدس برمجي ملائم لسيناريوهات الإنتاج (خدمات سحابية، بحث، توصية، دردشات مؤسسية) بسرعة أكبر من محاولة منافسة إنفيديا في تدريب نماذج الأسس (Foundation Models). هذا مسار تكتيكي واقعي لتقليل الاعتماد دون انتظار كسر احتكار التدريب فورًا. 

💡 جدول مقارنة بين شرائح الذكاء الاصطناعي المحلية وشرائح إنفيديا

هذا الجدول يلخّص الفروق الأساسية من ناحية التصنيع، الأداء، الدعم البرمجي، والتكلفة. مفيد للقراء التقنيين ومديري البنى التحتية السحابية الباحثين عن قرار عملي بين الاعتماد على شرائح محلية أو البقاء مع نظام إنفيديا القائم.

البند
شرائح الذكاء الاصطناعي (محلية)
شرائح إنفيديا
التصنيع
قد تُصنع محليًا أو عبر مسابك محدودة؛ قدرة التصنيع ما تزال في طور التوسع والاعتماد على قدرات متخصصة.
تُصنع غالبًا عبر مسابك رائدة (TSMC، Samsung) مع جودة إنتاجية وتجارب تغليف متقدمة.
الفئة المستهدفة (تدريب / استدلال)
تميل في بداياتها إلى **الاستدلال** (Inference) وتغطية حالات الإنتاج؛ إصدارات مستقبلية قد تتجه للـتدريب الجزئي.
خيار رائد لكلٍّ من **التدريب** و**الاستدلال**، خصوصًا في فئات H100/H200/H20 وما بعدها.
الأداء والقدرة الخام
أداء واعد في سيناريوهات محلية ومقارنة على واط/تكلفة، لكن لمعان الأداء في مراكز التدريب الضخمة ما زال قيد التحقق.
أداءً كبيرًا ومثبتًا في عمليات التدريب على نطاق واسع مع معايير قياس موثوقة عبر الصناعة.
التوافق البرمجي والدعم
تبدأ ببنى برمجية محلية ودعم ONNX/طبقات توافق؛ التحدي هو منافسة منظومة CUDA الواسعة ومكتباتها.
منظومة متكاملة (CUDA، مكتبات تسريع، أدوات تطوير)، ومجتمع مطورين عالمي ضخم.
سلسلة التوريد والتوافر
مرنة داخل السوق المحلي لكن معرضة لقيود تقنية عالمية في حال الحاجة لعقد متقدمة أو معدات نادرة.
تعتمد على عقود مسبقة مع مسابك كبرى تضمن توافرًا عاليًا لكن أيضًا قابلية لتقلبات الطلب العالمية.
التكلفة وقيمة السعر/أداء
قد تكون اقتصادية أكثر في الاستخدام المحلي (تكاليف نقل أقل وتعريفات محلية)، خصوصًا للاستدلال.
تكلفة أعلى عادةً لكن مع مردود أداء ثابت وقابلية دعم طويلة المدى لمشاريع التدريب الكبرى.
استهلاك الطاقة والفعالية
توجهات لتصميمات فعّالة من ناحية واط/أداء، لكن القياس الواقعي يتطلب اختبارات ميدانية موسعة.
تحسينات قوية عبر أجيال متتابعة تؤدي لفعالية طاقة محسّنة في فئات متقدمة.
دعم المجتمع والمطورين
ينمو محليًا مع مبادرات فتح المصادر والدعم الحكومي؛ لكنه لا يزال أصغر وأقل تنوعًا من مجتمع إنفيديا.
مجتمع ضخم، مكتبات كثيرة، ووثائق واسعة تسهل تبنّي النماذج وتطويرها.
الخلاصة العملية
خيار ممتاز لتقليل الاعتماد محليًا وفي حالات الاستدلال الإنتاجي؛ يحتاج وقتًا لبناء ثقة في مهام التدريب الضخم.
الخيار الآمن للحلول واسعة النطاق والتدريب المكثف؛ معيار صناعي صعب تجاوزه في المدى القريب.

سيناريوهات واقعية لتقليل الاعتماد على إنفيديا

سيناريوهات واقعية لتقليل الاعتماد على إنفيديا
سيناريوهات واقعية لتقليل الاعتماد على إنفيديا 
  • تقسيم عبء العمل: نقل 50–70% من الاستدلال إلى الشريحة المحلية، والإبقاء على التدريب الثقيل على H20/بدائل إنفيديا ضمن الأطر المسموح بها—ما يقلّل التكلفة والقيود اللوجستية. 
  • طبقات توافق برمجية: دعم ONNX وواجهات مخصّصة لتسهيل ترحيل النماذج المدربة على إنفيديا نحو الاستدلال المحلي دون إعادة تدريب شامل.
  • شراكات تصنيع وتغليف: الاستثمار في تغليف ثلاثي الأبعاد وتراصّ رقائقي (Chiplet + 2.5D/3D) لتعويض فجوات العُقد المتقدمة ورفع الأداء/واط تدريجيًا.
  • خريطة طريق للتدريب: نسخة “Pro” لاحقة ترفع الذاكرة والنطاق الشبكي، تُختبر أولًا في Clusters داخل سحابة علي بابا، ثم تُفتح لعملاء خارجيين.

أثر قرارات واشنطن على ديناميكية السوق

  1. حُجب H20 عن الصين لفترة في 2025 ثم سُمح باستئناف البيع في يوليو 2025؛ وأفادت تقارير عن اتفاق مشاركة 15% من إيرادات H20 مع الحكومة الأمريكية. هذا يوازن بين اعتبارات الأمن القومي الأميركي والإبقاء على الشركات الصينية داخل منظومة إنفيديا بدل الهجرة الكاملة لبدائل محلية. 
  2. في المقابل، تُظهر تحليلات أن السماح الجزئي للـH20 قد يكون “أفضل السيئات” لصنّاع السياسة الأميركيين لمنع قَطع الحبل السُري الذي يربط مطوري الصين بمنظومة CUDA. 

هل تنهي علي بابا هيمنة إنفيديا على شرائح الذكاء الاصطناعي؟

قصير الأجل (6–12 شهرًا)

مرجّح أن تُحدث علي بابا فارقًا في الاستدلال داخل الصين إذا أثبتت الشريحة كفاءة جيدة وكُلفة مناسبة، ما يعني تقليصًا جزئيًا في الاعتماد على H20 داخل تطبيقات الإنتاج السحابي. لا نتوقع تبدّلًا جذريًا في تدريب النماذج العملاقة في هذا الأفق الزمني. 

متوسط الأجل (12–24 شهرًا):

إذا ظهرت نسخة أقوى للتدريب مع منظومة برمجية ناضجة وتغليف شبكي متقدّم، فقد نرى تآكلًا أوسع في حصة إنفيديا داخل الصين. لكن تجارب السوق تُظهر أن بناء بديل حقيقي يتطلّب سنوات من التطوير والتراكم البرمجي والتصنيعي. 

ختامــا: الهيمنة العالمية لإنفيديا لن تنتهي غدًا، لكن نافذة محلية باتت تُفتح أمام شركات صينية وعلي بابا في مقدمتها لدفع جزء معتبر من أعباء شرائح الذكاء الاصطناعي إلى الداخل. النجاح سيعتمد على التنفيذ البرمجي بقدر ما يعتمد على الترانزستورات.

مصادر موثوقة للاطّلاع

  • رويترز نقلًا عن وول ستريت جورنال: Alibaba تطوّر شريحة جديدة للذكاء الاصطناعي، تُصنَّع محليًا، وهي الآن تحت الاختبار؛ تميل للاستخدام في الاستدلال. 
  • رويترز (4 سبتمبر 2025): شركات صينية لا تزال ترغب في شراء شرائح إنفيديا؛ استئناف بيع H20 في يوليو 2025، واتفاق مشاركة عائدات بنسبة 15%. 
  • ECIPE: عودة H20 إلى السوق الصينية في منتصف يوليو 2025 ضمن قرار محسوب من واشنطن. ecipe.org
  • RAND: تفضيل واسع لشرائح إنفيديا لدى مطوري الصين، واعتماد نماذج بارزة على عتاد إنفيديا. rand.org
  • Tom’s Hardware (أغسطس/سبتمبر 2025): هيمنة TSMC على السباكة المتقدمة بحصة ~70% في الربع الثاني 2025. Tom's Hardware
  • Semiconductor Engineering: اللاعبون الثلاثة في العُقَد المتقدّمة: TSMC وSamsung وIntel. Semiconductor Engineering

❓ أسئلة شائعة

اضغط على أي سؤال لتظهر الإجابة أسفله. السؤال الأول مفتوح تلقائيًا لتوضيح وظيفة الأزرار.

حتى الآن، تشير البيانات إلى أن شريحة علي بابا موجهة أساسًا لحالات الاستدلال وليس بديلاً مباشرًا متكافئًا لشريحة H20 في مهام التدريب الكبيرة. قد تقلّل الاعتماد على H20 في تطبيقات الإنتاج المحلية، لكن بديل التدريب الكامل يتطلّب تطويرات أعمق في العتاد والبرمجيات.

عبد الغني
عبد الغني
تعليقات