صفقة OpenAI-NVIDIA بقيمة 100 مليار دولار أمريكي: 10 جيجاوات من البنية التحتية للذكاء الاصطناعي

تمثل المصافحة بين جنسن هوانج وسام ألتمان أكثر من مجرد دبلوماسية الشركات. فقد التزمت شركتاهما للتو ببناء 10 جيجاوات من البنية التحتية للذكاء الاصطناعي - وهي طاقة حاسوبية تكفي لخدمة قدرة تفوق بمليار مرة قدرة نظام DGX الواحد الذي سلمه هوانج شخصيًا إلى مكتب OpenAI قبل تسع سنوات.¹ تخطط NVIDIA لاستثمار ما يصل إلى 100 مليار دولار مع نشر OpenAI لهذه الأنظمة، وهو ما يسميه هوانج "أكبر مشروع بنية تحتية للذكاء الاصطناعي في التاريخ."²

تأتي هذه الشراكة في مرحلة حرجة. يخدم OpenAI 700 مليون مستخدم نشط أسبوعيًا، والذين يولدون مجتمعين متطلبات حسابية تفوق متطلبات معظم مراكز الحوسبة الفائقة الوطنية.³ وفي الوقت نفسه، يعد الجيل التالي من منصة فيرا روبن من NVIDIA بثمانية إكسافلوب من أداء الذكاء الاصطناعي و100 تيرابايت من الذاكرة السريعة في رف واحد. تبدو هذه المواصفات وكأنها خيال علمي، ولكنها ستدعم أعباء العمل الإنتاجية بدءًا من أواخر عام 2026.⁴ إن التقاء ابتكارات نموذج OpenAI مع اختراقات أجهزة NVIDIA يخلق لعبة بنية تحتية تعيد تشكيل طريقة تفكيرنا في اقتصاديات الذكاء الاصطناعي.

عقد من الشراكة يصل إلى نقطة انعطاف.

يبدو التعاون بين NVIDIA وOpenAI وكأنه قصة من قصص وادي السيليكون الأصلية. في عام 2016، سلّم هوانغ أول كمبيوتر فائق DGX من NVIDIA يدويًا إلى مقر OpenAI في سان فرانسيسكو، وهي لحظة تم التقاطها في صور فوتوغرافية أصبحت الآن أيقونية. يتحدث رئيس OpenAI غريغ بروكمان عن تلك اللحظة: "تمثل الشراكة قوة حاسوبية أكبر بمليار مرة من ذلك الخادم الأولي."⁵

دفعت الشركتان الحدود معاً من خلال قفزات تكنولوجية متعددة. فقد دعمت أجهزة NVIDIA تطور سلسلة GPT من OpenAI، بدءًا من النماذج اللغوية المبكرة وحتى الظهور الأول المذهل ل ChatGPT. تطلب كل جيل المزيد من الحوسبة بشكل كبير، مما دفع NVIDIA إلى تسريع دورات تطوير رقاقاتها بينما قامت OpenAI بتحسين بنيات النماذج لزيادة كفاءة الأجهزة إلى أقصى حد.

تضفي الاتفاقية الجديدة الطابع الرسمي على ما كان مراقبو الصناعة يشتبهون فيه منذ فترة طويلة: تحتاج هذه الشركات إلى بعضها البعض. يتطلب OpenAI موارد حاسوبية هائلة لتدريب الأنظمة فائقة الذكاء، بينما تستفيد NVIDIA من ابتكارات نموذج OpenAI التي تعرض قدرات أجهزتها. ستعمل الشركتان على "تحسين خرائط الطريق الخاصة بهما لنموذج OpenAI وبنيتها التحتية"، مما يشير إلى تعاون تقني عميق يتجاوز ديناميكيات المشتري والمورد البسيطة.

منصة فيرا روبن تعيد تعريف الحدود الحسابية.

تمثّل منصة Vera Rubin NVL144 CPX من NVIDIA قفزة نوعية في تصميم البنية التحتية للذكاء الاصطناعي. يدمج النظام 144 وحدة معالجة رسومات Rubin CPX، و144 وحدة معالجة رسومات Rubin، و36 وحدة معالجة مركزية Vera في تكوين حامل واحد يوفر أداء ذكاء اصطناعي أكثر بـ 7.5 أضعاف من أنظمة NVIDIA GB300 NVL72.⁷ الأرقام مذهلة حتى لمهندسي البنية التحتية المخضرمين. 1.7 بيتابايت في الثانية من عرض النطاق الترددي للذاكرة يمكّن النماذج من معالجة سياقات بملايين الرموز دون تدهور الأداء.

تقدم بنية روبن CPX دارات متخصصة مُحسّنة لآليات الانتباه لنماذج اللغة وأعباء عمل معالجة الفيديو. يتميز كل نظام روبن CPX بذاكرة GDDR7 بسعة 128 جيجا بايت على قالب واحد، بينما تحقق المنصة أداءً يبلغ 50 بيتافلوب في FP4 - وهو ما يمثلتحسناً بمقدار 2.5 مرة مقارنةً بـ 20 بيتافلوب من Blackwell.⁸ صممت NVIDIA هذه الأنظمة خصيصاً لأعباء عمل الاستدلال التي ستهيمن على اقتصاديات الذكاء الاصطناعي مع انتقال النماذج من البحث إلى الإنتاج.

يمثل Vera أول تصميم مخصص لوحدة المعالجة المركزية من NVIDIA استناداً إلى بنية Olympus الأساسية. يعد المعالج القائم على الذراع المكون من 88 نواة بضعف أداء وحدة المعالجة المركزية Grace المستخدمة في أنظمة Blackwell الحالية.⁹ إن التكامل المحكم بين وحدات المعالجة المركزية Vera ووحدات معالجة الرسومات Rubin من خلال نظام NVIDIA MGX يزيل الاختناقات التقليدية التي تعاني منها بنيات الحوسبة الموزعة.

تعمل اقتصاديات البنية التحتية على تحويل نماذج أعمال الذكاء الاصطناعي.

تكشف الهندسة المالية وراء الشراكة عن كيفية تطور اقتصاديات البنية التحتية للذكاء الاصطناعي. إن التزام NVIDIA باستثمار ما يصل إلى 100 مليار دولار بشكل تدريجي، بعد نشر كل جيجاوات، يخلق نموذج تمويل جديد يوائم بين حوافز مزودي الأجهزة ونجاح العملاء.¹⁰ يسمح هذا الترتيب لشركة OpenAI بتوسيع نطاق البنية التحتية دون نفقات رأسمالية ضخمة مقدماً بينما تشارك NVIDIA في خلق القيمة التي تتيحها أجهزتها.

على نطاق واسع، تعد منصة فيرا روبن بعائد استثماري يتراوح بين 30 ضعفاً و50 ضعفاً، مما قد يترجم إلى 5 مليارات دولار من الإيرادات من نفقات رأسمالية تبلغ 100 مليون دولار.¹¹ هذه الاقتصاديات تغير بشكل أساسي كيفية تقييم الشركات لقرارات البنية التحتية للذكاء الاصطناعي. تنخفض التكلفة لكل وحدة ذكاء، وهو مقياس تؤكد عليه كلتا الشركتين، بشكل كبير عندما تحقق الأنظمة نطاقاً واستخداماً كافيين.

يشير هيكل الشراكة إلى أن الشركتين تعلمتا من دورات ازدهار وكساد تعدين العملات الرقمية. فبدلاً من بيع الأجهزة في طلب مضاربي، تربط NVIDIA استثمارها بالنشر والاستخدام الفعلي. تكتسب OpenAI توسعًا متوقعًا في السعة يتماشى مع نمو المستخدم والجداول الزمنية لتطوير النموذج.

الآثار الإقليمية تعيد تشكيل جغرافية مراكز البيانات.

يتطلب نشر 10 جيجاوات سعة غير مسبوقة لمراكز البيانات التي ستعيد تشكيل خرائط البنية التحتية العالمية. وللتوضيح، فإن 10 جيجاوات تساوي تقريباً استهلاك الطاقة لعشرة ملايين منزل أو منطقة حضرية مركزية. يمثل العثور على مواقع ذات طاقة متوفرة وسعة تبريد واتصال بالشبكة بهذا الحجم تحديات هندسية تنافس تلك الخاصة بالتعقيدات الحاسوبية.

يخلق بناء البنية التحتية فرصًا لأسواق مراكز البيانات الإقليمية، لا سيما في مناطق آسيا والمحيط الهادئ ذات شبكات الطاقة القوية ومزايا التبريد. البلدان التي لديها فوائض في الطاقة المتجددة وبيئات تنظيمية مواتية تهيئ نفسها للاستحواذ على جزء من هذا النشر. إن الجدول الزمني للشراكة - أول أنظمة تعمل في أواخر عام 2026 - يمنح مشغلي مراكز البيانات والحكومات نافذة ضيقة لإعداد البنية التحتية.

تصبح خبرة النشر الاحترافية حاسمة في هذا النطاق. فغالباً ما يعود الفرق بين المواصفات النظرية والأداء التشغيلي إلى كفاءة التبريد وتوزيع الطاقة وتحسين التوصيل البيني. تتفهم شركات مثل Introl، التي تتمتع بخبرة في نشر مجموعات وحدات معالجة الرسومات الضخمة عبر مناطق جغرافية متنوعة، الفروق الدقيقة التي تحدد ما إذا كانت هذه الأنظمة تحقق الأداء الموعود.

تشتد المنافسة، ولكن يبرز نموذج الشراكة كنهج مهيمن.

يشير تحالف OpenAI-NVIDIA إلى تحول أوسع في الصناعة نحو شراكات عميقة بين مطوري النماذج ومزودي الأجهزة. ويمثل تعاون شركة أنثروبيك مع شركة أمازون لخدمات الويب وتطوير جوجل الداخلي لوحدات المعالجة ثلاثية الأبعاد تنويعات على نفس الموضوع. يتطلب تقدم الذكاء الاصطناعي تنسيقاً غير مسبوق بين ابتكار البرمجيات والأجهزة.

يضيف موقف Microsoft تعقيدًا إلى المشهد. وباعتبارها أكبر مستثمر وشريك سحابي ل OpenAI، يجب على Microsoft أن توازن بين استثماراتها في البنية التحتية ل Azure وعلاقة OpenAI المباشرة مع NVIDIA. وتضع الشركتان جهودهما في إطار تكاملي، ولكن قرارات تخصيص الموارد ستختبر هذا السرد مع تزايد الطلبات الحاسوبية.

تتضح مزايا نموذج الشراكة عند دراسة الأساليب البديلة. يتطلب بناء السيليكون المخصص سنوات من التطوير واستثمارات بمليارات الدولارات، مع نتائج غير مؤكدة. يؤدي الاعتماد فقط على مزودي الخدمات السحابية إلى تكديس الهامش الذي يجعل التدريب على نطاق واسع صعباً من الناحية الاقتصادية. إن التعاون المباشر بين OpenAI و NVIDIA يلغي التكاليف الوسيطة مع تسريع دورات الابتكار.

يكشف الجدول الزمني عن جدول زمني صارم ولكن يمكن تحقيقه في الوقت نفسه.

سيبدأ تشغيل أول جيجاوات من الأنظمة في النصف الثاني من عام 2026، بالتزامن مع توفر NVIDIA Rubin CPX.¹² يتطلب الجدول الزمني القوي تنفيذًا متوازيًا عبر مسارات عمل متعددة: تصنيع الرقاقات، وبناء مركز البيانات، ونشر البنية التحتية للطاقة، وتحسين البرمجيات. يمثل كل عنصر اختناقات محتملة يمكن أن تؤخر الرؤية الأوسع نطاقاً التي تبلغ 10 جيجاوات.

يجب أن يخصص شركاء NVIDIA في التصنيع، وعلى رأسهم شركة TSMC، سعة كبيرة لإنتاج روبن. تضيف تقنيات التعبئة والتغليف المتقدمة المطلوبة لـRobin CPX تعقيدات تتجاوز التصنيع التقليدي لوحدة معالجة الرسومات. ويصبح تنويع سلسلة التوريد أمرًا بالغ الأهمية لتجنب نقاط الفشل الوحيدة التي يمكن أن تعرقل جداول النشر.

تتوافق نافذة النشر 2026-2030 مع العديد من التحولات التكنولوجية. يتسارع تحديث البنية التحتية للطاقة، لا سيما في دمج الطاقة المتجددة، لتلبية متطلبات مراكز البيانات. نضجت تقنيات التوصيل البيني الضوئي لتلبية متطلبات النطاق الترددي المتزايدة. أصبحت ابتكارات التبريد، من التبريد السائل المباشر إلى أنظمة الغمر، قياسية وليست تجريبية.

تتطلب التحديات الهندسية ابتكاراً في جميع أنحاء المكدس.

يُظهر نشر 10 جيجاوات من البنية التحتية للذكاء الاصطناعي تحديات هندسية تدفع التقنيات الحالية إلى أقصى حدودها. يتطلب توفير الطاقة بهذا الحجم التنسيق مع شركات المرافق العامة وربما قدرة توليد مخصصة. إن رف فيرا روبن واحد يستهلك ميغاواط من الطاقة يولد حرارة لا يمكن للتبريد الهوائي التقليدي تبديدها بكفاءة.

يجب أن تتطور بنية الشبكة لدعم توازي النماذج عبر آلاف وحدات معالجة الرسومات. إن عرض النطاق الترددي للذاكرة الذي يبلغ 1.7 بيتابايت في الثانية داخل حامل فيرا روبن يعني أن الشبكات الخارجية تصبح عنق الزجاجة الأساسي للتدريب الموزع. يعالج استثمار NVIDIA في تقنيات الربط البيني الضوئي وسيليكون التبديل هذه القيود ولكنه يتطلب تصميم نظام دقيق.

يصبح تحسين البرمجيات على نفس القدر من الأهمية. يجب أن تستفيد نماذج OpenAI بكفاءة من الدوائر المتخصصة في روبن CPX لآليات الانتباه. يشير التزام الشركتين بالتحسين المشترك لخرائط الطريق الخاصة بهما إلى تعاون عميق في تقنيات المترجم، وتحسين النواة وتطوير بنية النموذج. غالبًا ما تتجاوز مكاسب الأداء من تحسين البرمجيات تحسينات الأجهزة على هذا النطاق.

تمتد آثار السوق إلى ما هو أبعد من المشاركين المباشرين.

تمتد آثار الشراكة إلى جميع أنحاء منظومة التكنولوجيا. يشهد مزودو تكنولوجيا التبريد طلباً غير مسبوق على حلول التبريد السائل. تعمل شركات البنية التحتية للطاقة على تسريع مشاريع تحديث الشبكة. تعمل شركات تصنيع المكونات البصرية على زيادة الإنتاج لتلبية متطلبات التوصيل البيني.

تشتد حرب المواهب مع قيام الشركتين بتوسيع نطاق الفرق الهندسية. يحصل مهندسو البنية التحتية الذين يفهمون في تحسين مجموعة وحدات معالجة الرسومات على تعويضات متميزة. مهندسو البرمجيات الذين يتمتعون بخبرة في التدريب الموزع يصبحون لا يقدرون بثمن. تخلق هذه الشراكة آلاف الوظائف ذات الأجور المرتفعة في العديد من التخصصات والمناطق الجغرافية.

تواجه شركات الذكاء الاصطناعي الأصغر حجماً خياراً صارخاً: الشراكة مع مزودي الخدمات السحابية الذين يقومون بترميز أجهزة NVIDIA أو قبول القيود الحسابية التي تحد من طموحات النموذج. تفضل اقتصاديات البنية التحتية للذكاء الاصطناعي بشكل متزايد الحجم، مما يخلق ضغطاً طبيعياً للاندماج في جميع أنحاء الصناعة.

خارطة الطريق المستقبلية تشير إلى إيقاع الابتكار المستدام

في حين أن الاتفاقية الحالية تركز على نشر فيرا روبن، إلا أن الشركتين تشيران إلى تعاون مستمر لما بعد عام 2030. يشير الإيقاع السنوي لبنية NVIDIA (بلاكويل وروبن ومنصات مستقبلية غير مسماة) إلى تحسينات مستمرة في الأداء. يتطلب تقدم OpenAI نحو الذكاء الاصطناعي العام موارد حاسوبية تنمو بشكل كبير مع كل قفزة في القدرات.

ينطوي التزام التحسين المشترك على تطوير تكنولوجيا مشتركة يمكن أن تنتج ابتكارات لن تحققها أي من الشركتين بشكل مستقل. قد ينشأ عن هذا التعاون سيليكون مخصص لبنى نموذجية محددة، أو أساليب تبريد جديدة لعمليات النشر فائقة الكثافة، أو تقنيات ربط بينية متطورة.

قد يتعاون المشاركون الآخرون بهذه الطريقة في المستقبل. يمكن أن تنضم شركات تصنيع الرقاقات ومتخصصو التبريد ومزودو البنية التحتية للطاقة إلى النظام البيئي، مما يؤدي إلى إنشاء مجموعة متكاملة محسنة لأعباء عمل الذكاء الاصطناعي. تصبح مزايا التكامل الرأسي غير قابلة للتغلب على المنافسين الذين يحاولون تجميع قدرات مماثلة من مكونات منفصلة.

الخاتمة

تعمل الشراكة بين OpenAI وVIDIA على تحويل البنية التحتية للذكاء الاصطناعي من تقنية داعمة إلى عامل تفاضلي استراتيجي. إن الالتزام بمبلغ 100 مليار دولار وهدف نشر 10 جيجاوات يضعان معايير جديدة للطموح الحاسوبي. مع بدء تشغيل هذه الأنظمة بدءًا من عام 2026، فإنها تتيح قدرات الذكاء الاصطناعي التي لا توجد اليوم إلا في الأوراق البحثية والخيال العلمي.

ويوفر نموذج التعاون (التكامل التقني العميق، والحوافز الاقتصادية المتوائمة، والمخاطر المشتركة) نموذجًا لكيفية وصول التقنيات التحويلية إلى نطاق واسع. وفي حين أن التحديات لا تزال قائمة في توصيل الطاقة وكفاءة التبريد وتحسين البرمجيات، فإن هيكل الشراكة يحفز على حل هذه المشاكل بدلاً من الالتفاف حولها.

بالنسبة للمؤسسات التي تخطط للاستثمارات في البنية التحتية للذكاء الاصطناعي، فإن الرسالة واضحة: لقد انتهى عصر الإضافات التدريجية للقدرات. يتطلب نشر الذكاء الاصطناعي التنافسي التفكير بالجيجاوات، وليس بالميجاوات. أصبح شركاء البنية التحتية المحترفون الذين يفهمون ديناميكيات هذا النطاق ضروريًا للاستفادة من القيمة من المرحلة التالية للذكاء الاصطناعي. سيأتي المستقبل الحاسوبي الذي يتصوره OpenAI وNVIDIA أسرع مما يتوقعه معظم الناس. والسؤال الوحيد هو من سيكون مستعداً لتسخيرها.

المراجع

  1. NVIDIA. "تعلن NVIDIA وOpenAI عن "أكبر نشر للبنية التحتية للذكاء الاصطناعي في التاريخ". مدونة NVIDIA. 22 سبتمبر 2025. https://blogs.nvidia.com/blog/openai-nvidia/.

  2. NVIDIA. "تعلن NVIDIA وOpenAI عن "أكبر نشر للبنية التحتية للذكاء الاصطناعي في التاريخ". مدونة NVIDIA. 22 سبتمبر 2025. https://blogs.nvidia.com/blog/openai-nvidia/.

  3. NVIDIA. "تعلن NVIDIA وOpenAI عن "أكبر نشر للبنية التحتية للذكاء الاصطناعي في التاريخ". مدونة NVIDIA. 22 سبتمبر 2025. https://blogs.nvidia.com/blog/openai-nvidia/.

  4. مجلة الذكاء الاصطناعي. "داخل OpenAI وصفقة البنية التحتية للذكاء الاصطناعي بقيمة 100 مليار دولار أمريكي التي أبرمتها إنفيديا." مجلة الذكاء الاصطناعي. 2025. https://aimagazine.com/news/behind-openai-and-nvidias-landmark-10gw-ai-data-centre-deal..

  5. NVIDIA. "تعلن NVIDIA وOpenAI عن "أكبر نشر للبنية التحتية للذكاء الاصطناعي في التاريخ". مدونة NVIDIA. 22 سبتمبر 2025. https://blogs.nvidia.com/blog/openai-nvidia/.

  6. مجلة الذكاء الاصطناعي. "داخل OpenAI وصفقة البنية التحتية للذكاء الاصطناعي بقيمة 100 مليار دولار أمريكي التي أبرمتها إنفيديا." مجلة الذكاء الاصطناعي. 2025. https://aimagazine.com/news/behind-openai-and-nvidias-landmark-10gw-ai-data-centre-deal..

  7. مجلة الذكاء الاصطناعي. "داخل OpenAI وصفقة البنية التحتية للذكاء الاصطناعي بقيمة 100 مليار دولار أمريكي التي أبرمتها إنفيديا." مجلة الذكاء الاصطناعي. 2025. https://aimagazine.com/news/behind-openai-and-nvidias-landmark-10gw-ai-data-centre-deal..

  8. شبه تحليل. "NVIDIA GTC 2025 - Built For Reasoning، فيرا روبن، وكيبر، وCPCO، وDynamo Inference، وJensen Math، و Feynman" 19 مارس 2025. https://semianalysis.com/2025/03/19/nvidia-gtc-2025-built-for-reasoning-vera-rubin-kyber-cpo-dynamo-inference-jensen-math-feynman/.

  9. Wccftech. "NVIDIA Rubin & Rubin Ultra مع وحدات المعالجة المركزية Vera من الجيل التالي من وحدات المعالجة المركزية Vera تبدأ في الوصول العام المقبل: ذاكرة HBM4 بسعة تصل إلى 1 تيرابايت، ووحدات معالجة رسومات بحجم 4 ريتيل، و100PF FP4 و88 نواة وحدة معالجة مركزية". 18 مارس 2025. https://wccftech.com/nvidia-rubin-rubin-ultra-next-gen-vera-cpus-next-year-1-tb-hbm4-memory-4-reticle-sized-gpus-100pf-fp4-88-cpu-cores/.

  10. NVIDIA. "تعلن NVIDIA وOpenAI عن "أكبر نشر للبنية التحتية للذكاء الاصطناعي في التاريخ". مدونة NVIDIA. 22 سبتمبر 2025. https://blogs.nvidia.com/blog/openai-nvidia/.

  11. مجلة الذكاء الاصطناعي. "داخل OpenAI وصفقة البنية التحتية للذكاء الاصطناعي بقيمة 100 مليار دولار أمريكي التي أبرمتها إنفيديا." مجلة الذكاء الاصطناعي. 2025. https://aimagazine.com/news/behind-openai-and-nvidias-landmark-10gw-ai-data-centre-deal..

  12. مجلة الذكاء الاصطناعي. "داخل OpenAI وصفقة البنية التحتية للذكاء الاصطناعي بقيمة 100 مليار دولار أمريكي التي أبرمتها إنفيديا." مجلة الذكاء الاصطناعي. 2025. https://aimagazine.com/news/behind-openai-and-nvidias-landmark-10gw-ai-data-centre-deal..

السابق
السابق

40-250 كيلوواط لكل رف: حلول مراكز البيانات فائقة الكثافة: حلول مراكز البيانات فائقة الكثافة

التالي
التالي

فواتير وإنترول تعلنان عن شراكة لإعادة تعريف مستقبل مراكز بيانات الذكاء الاصطناعي