Sztuczna inteligencjacentra danych / data centerRynekPolecane tematy
Sojusz Nvidia-Meta: miliony chipów dla centrów danych AI
Nvidia i Meta Platforms podpisały wieloletnią umowę obejmującą dostawy milionów układów AI – od GPU Blackwell po nowe procesory CPU Grace i Vera. Partnerstwo wykracza poza klasyczne akceleratory i sygnalizuje ambicję Nvidii do wejścia głębiej w rynek serwerowych CPU, zdominowany dotąd przez Intela i AMD.

Nowe porozumienie obejmuje obecne układy Blackwell oraz przyszłą generację Rubin, a także samodzielne wdrożenia procesorów Grace i planowanych Vera. To istotna zmiana: Meta będzie pierwszym podmiotem wdrażającym CPU Grace na dużą skalę jako niezależne jednostki w centrach danych – bez integracji z GPU w jednym serwerze.
Dla Nvidii to strategiczny ruch. Firma, kojarzona głównie z akceleratorami AI, konsekwentnie buduje pełen stos infrastrukturalny: CPU, GPU, sieć i oprogramowanie. Jak podkreślił Jensen Huang, prezes Nvidii, celem jest „współprojektowanie” całej platformy pod kątem potrzeb hiperskalowych centrów danych.
Uderzenie w Intela i AMD
Wejście z samodzielnymi CPU w środowisko Meta oznacza bezpośrednią konkurencję dla tradycyjnych procesorów serwerowych, gdzie dominują firmy Intel i Advanced Micro Devices (AMD). Procesor Grace – oparty na architekturze Arm – ma według Nvidii zużywać nawet o połowę mniej energii przy wybranych obciążeniach, np. bazach danych. Także kolejna generacja Vera ma przynieść dalszą poprawę efektywności.
Meta planuje wdrożenie systemów Vera w 2027 roku. Równolegle będzie korzystać zarówno z własnych centrów danych, jak i infrastruktury udostępnianej przez partnerów w ramach programu Nvidia Cloud Partners.
AI na skalę przemysłową
Wspomniane partnerstwo wpisuje się w ambitne plany inwestycyjne Meta – spółka zapowiedziała przeznaczenie do 135 mld dolarów na rozwój AI do 2026 roku. Rozbudowa infrastruktury ma wspierać zarówno trenowanie modeli, jak i wnioskowanie oraz systemy rekomendacyjne obsługujące miliardy użytkowników.
Jednocześnie Meta rozwija własne układy AI i prowadzi rozmowy z Google w sprawie wykorzystania TPU. Przypomnijmy, że własne procesory rozwijają także Amazon i Microsoft. Rynek zastanawia się, czy wyspecjalizowane układy ASIC (Application-Specific Integrated Circuit) nie ograniczą w przyszłości dominacji GPU.
Analitycy pozostają jednak sceptyczni wobec scenariusza szybkiej utraty pozycji przez Nvidię. GPU pozostają najbardziej uniwersalną architekturą dla szerokiego spektrum zastosowań AI, podczas gdy układy dedykowane – jak TPU – mają bardziej ograniczone scenariusze użycia.
Sygnał dla rynku
Choć wartość umowy między gigantami nie została ujawniona, eksperci szacują ją na dziesiątki miliardów dolarów. Meta jest już jednym z największych klientów Nvidii i odpowiada – wraz z trzema innymi odbiorcami – za większość przychodów spółki.
Nowa umowa ma znaczenie wykraczające poza wolumen sprzedaży. To potwierdzenie, że Nvidia skutecznie rozszerza swoją obecność z rynku akceleratorów AI na pełną infrastrukturę centrów danych. Jeśli strategia się powiedzie, firma nie tylko utrzyma dominację w GPU, ale stanie się realnym graczem w segmencie CPU dla hiperskali.






