الصين تطور شريحة ذكاء اصطناعي جديدة لتقليل الاعتماد على إنفيديا
💡 جدول مقارنة بين شرائح الذكاء الاصطناعي المحلية وشرائح إنفيديا
هذا الجدول يلخّص الفروق الأساسية من ناحية التصنيع، الأداء، الدعم البرمجي، والتكلفة. مفيد للقراء التقنيين ومديري البنى التحتية السحابية الباحثين عن قرار عملي بين الاعتماد على شرائح محلية أو البقاء مع نظام إنفيديا القائم.
البند |
شرائح الذكاء الاصطناعي (محلية) |
شرائح إنفيديا |
---|---|---|
التصنيع |
قد تُصنع محليًا أو عبر مسابك محدودة؛ قدرة التصنيع ما تزال في طور التوسع والاعتماد على قدرات متخصصة.
|
تُصنع غالبًا عبر مسابك رائدة (TSMC، Samsung) مع جودة إنتاجية وتجارب تغليف متقدمة.
|
الفئة المستهدفة (تدريب / استدلال) |
تميل في بداياتها إلى **الاستدلال** (Inference) وتغطية حالات الإنتاج؛ إصدارات مستقبلية قد تتجه للـتدريب الجزئي.
|
خيار رائد لكلٍّ من **التدريب** و**الاستدلال**، خصوصًا في فئات H100/H200/H20 وما بعدها.
|
الأداء والقدرة الخام |
أداء واعد في سيناريوهات محلية ومقارنة على واط/تكلفة، لكن لمعان الأداء في مراكز التدريب الضخمة ما زال قيد التحقق.
|
أداءً كبيرًا ومثبتًا في عمليات التدريب على نطاق واسع مع معايير قياس موثوقة عبر الصناعة.
|
التوافق البرمجي والدعم |
تبدأ ببنى برمجية محلية ودعم ONNX/طبقات توافق؛ التحدي هو منافسة منظومة CUDA الواسعة ومكتباتها.
|
منظومة متكاملة (CUDA، مكتبات تسريع، أدوات تطوير)، ومجتمع مطورين عالمي ضخم.
|
سلسلة التوريد والتوافر |
مرنة داخل السوق المحلي لكن معرضة لقيود تقنية عالمية في حال الحاجة لعقد متقدمة أو معدات نادرة.
|
تعتمد على عقود مسبقة مع مسابك كبرى تضمن توافرًا عاليًا لكن أيضًا قابلية لتقلبات الطلب العالمية.
|
التكلفة وقيمة السعر/أداء |
قد تكون اقتصادية أكثر في الاستخدام المحلي (تكاليف نقل أقل وتعريفات محلية)، خصوصًا للاستدلال.
|
تكلفة أعلى عادةً لكن مع مردود أداء ثابت وقابلية دعم طويلة المدى لمشاريع التدريب الكبرى.
|
استهلاك الطاقة والفعالية |
توجهات لتصميمات فعّالة من ناحية واط/أداء، لكن القياس الواقعي يتطلب اختبارات ميدانية موسعة.
|
تحسينات قوية عبر أجيال متتابعة تؤدي لفعالية طاقة محسّنة في فئات متقدمة.
|
دعم المجتمع والمطورين |
ينمو محليًا مع مبادرات فتح المصادر والدعم الحكومي؛ لكنه لا يزال أصغر وأقل تنوعًا من مجتمع إنفيديا.
|
مجتمع ضخم، مكتبات كثيرة، ووثائق واسعة تسهل تبنّي النماذج وتطويرها.
|
الخلاصة العملية |
خيار ممتاز لتقليل الاعتماد محليًا وفي حالات الاستدلال الإنتاجي؛ يحتاج وقتًا لبناء ثقة في مهام التدريب الضخم.
|
الخيار الآمن للحلول واسعة النطاق والتدريب المكثف؛ معيار صناعي صعب تجاوزه في المدى القريب.
|
سيناريوهات واقعية لتقليل الاعتماد على إنفيديا
- تقسيم عبء العمل: نقل 50–70% من الاستدلال إلى الشريحة المحلية، والإبقاء على التدريب الثقيل على H20/بدائل إنفيديا ضمن الأطر المسموح بها—ما يقلّل التكلفة والقيود اللوجستية.
- طبقات توافق برمجية: دعم ONNX وواجهات مخصّصة لتسهيل ترحيل النماذج المدربة على إنفيديا نحو الاستدلال المحلي دون إعادة تدريب شامل.
- شراكات تصنيع وتغليف: الاستثمار في تغليف ثلاثي الأبعاد وتراصّ رقائقي (Chiplet + 2.5D/3D) لتعويض فجوات العُقد المتقدمة ورفع الأداء/واط تدريجيًا.
- خريطة طريق للتدريب: نسخة “Pro” لاحقة ترفع الذاكرة والنطاق الشبكي، تُختبر أولًا في Clusters داخل سحابة علي بابا، ثم تُفتح لعملاء خارجيين.
أثر قرارات واشنطن على ديناميكية السوق
- حُجب H20 عن الصين لفترة في 2025 ثم سُمح باستئناف البيع في يوليو 2025؛ وأفادت تقارير عن اتفاق مشاركة 15% من إيرادات H20 مع الحكومة الأمريكية. هذا يوازن بين اعتبارات الأمن القومي الأميركي والإبقاء على الشركات الصينية داخل منظومة إنفيديا بدل الهجرة الكاملة لبدائل محلية.
- في المقابل، تُظهر تحليلات أن السماح الجزئي للـH20 قد يكون “أفضل السيئات” لصنّاع السياسة الأميركيين لمنع قَطع الحبل السُري الذي يربط مطوري الصين بمنظومة CUDA.
هل تنهي علي بابا هيمنة إنفيديا على شرائح الذكاء الاصطناعي؟
قصير الأجل (6–12 شهرًا)
مرجّح أن تُحدث علي بابا فارقًا في الاستدلال داخل الصين إذا أثبتت الشريحة كفاءة جيدة وكُلفة مناسبة، ما يعني تقليصًا جزئيًا في الاعتماد على H20 داخل تطبيقات الإنتاج السحابي. لا نتوقع تبدّلًا جذريًا في تدريب النماذج العملاقة في هذا الأفق الزمني.
متوسط الأجل (12–24 شهرًا):
إذا ظهرت نسخة أقوى للتدريب مع منظومة برمجية ناضجة وتغليف شبكي متقدّم، فقد نرى تآكلًا أوسع في حصة إنفيديا داخل الصين. لكن تجارب السوق تُظهر أن بناء بديل حقيقي يتطلّب سنوات من التطوير والتراكم البرمجي والتصنيعي.ختامــا: الهيمنة العالمية لإنفيديا لن تنتهي غدًا، لكن نافذة محلية باتت تُفتح أمام شركات صينية وعلي بابا في مقدمتها لدفع جزء معتبر من أعباء شرائح الذكاء الاصطناعي إلى الداخل. النجاح سيعتمد على التنفيذ البرمجي بقدر ما يعتمد على الترانزستورات.
مصادر موثوقة للاطّلاع
- رويترز نقلًا عن وول ستريت جورنال: Alibaba تطوّر شريحة جديدة للذكاء الاصطناعي، تُصنَّع محليًا، وهي الآن تحت الاختبار؛ تميل للاستخدام في الاستدلال.
- رويترز (4 سبتمبر 2025): شركات صينية لا تزال ترغب في شراء شرائح إنفيديا؛ استئناف بيع H20 في يوليو 2025، واتفاق مشاركة عائدات بنسبة 15%.
- ECIPE: عودة H20 إلى السوق الصينية في منتصف يوليو 2025 ضمن قرار محسوب من واشنطن. ecipe.org
- RAND: تفضيل واسع لشرائح إنفيديا لدى مطوري الصين، واعتماد نماذج بارزة على عتاد إنفيديا. rand.org
- Tom’s Hardware (أغسطس/سبتمبر 2025): هيمنة TSMC على السباكة المتقدمة بحصة ~70% في الربع الثاني 2025. Tom's Hardware
- Semiconductor Engineering: اللاعبون الثلاثة في العُقَد المتقدّمة: TSMC وSamsung وIntel. Semiconductor Engineering
❓ أسئلة شائعة
اضغط على أي سؤال لتظهر الإجابة أسفله. السؤال الأول مفتوح تلقائيًا لتوضيح وظيفة الأزرار.
حتى الآن، تشير البيانات إلى أن شريحة علي بابا موجهة أساسًا لحالات الاستدلال وليس بديلاً مباشرًا متكافئًا لشريحة H20 في مهام التدريب الكبيرة. قد تقلّل الاعتماد على H20 في تطبيقات الإنتاج المحلية، لكن بديل التدريب الكامل يتطلّب تطويرات أعمق في العتاد والبرمجيات.
اترك تعليقك اذا كان لديك اي تسائل حول الموضوع وسنجيبك فور مشاهدة تعليقك