Sztuczna inteligencjacentra danych / data centerRynekPolecane tematy

Sojusz Nvidia-Meta: miliony chipów dla centrów danych AI

Nvidia i Meta Platforms podpisały wieloletnią umowę obejmującą dostawy milionów układów AI – od GPU Blackwell po nowe procesory CPU Grace i Vera. Partnerstwo wykracza poza klasyczne akceleratory i sygnalizuje ambicję Nvidii do wejścia głębiej w rynek serwerowych CPU, zdominowany dotąd przez Intela i AMD.

Sojusz Nvidia-Meta: miliony chipów dla centrów danych AI

Nowe porozumienie obejmuje obecne układy Blackwell oraz przyszłą generację Rubin, a także samodzielne wdrożenia procesorów Grace i planowanych Vera. To istotna zmiana: Meta będzie pierwszym podmiotem wdrażającym CPU Grace na dużą skalę jako niezależne jednostki w centrach danych – bez integracji z GPU w jednym serwerze.

Dla Nvidii to strategiczny ruch. Firma, kojarzona głównie z akceleratorami AI, konsekwentnie buduje pełen stos infrastrukturalny: CPU, GPU, sieć i oprogramowanie. Jak podkreślił Jensen Huang, prezes Nvidii, celem jest „współprojektowanie” całej platformy pod kątem potrzeb hiperskalowych centrów danych.

Uderzenie w Intela i AMD

Wejście z samodzielnymi CPU w środowisko Meta oznacza bezpośrednią konkurencję dla tradycyjnych procesorów serwerowych, gdzie dominują firmy Intel i Advanced Micro Devices (AMD). Procesor Grace – oparty na architekturze Arm – ma według Nvidii zużywać nawet o połowę mniej energii przy wybranych obciążeniach, np. bazach danych. Także kolejna generacja Vera ma przynieść dalszą poprawę efektywności.

Meta planuje wdrożenie systemów Vera w 2027 roku. Równolegle będzie korzystać zarówno z własnych centrów danych, jak i infrastruktury udostępnianej przez partnerów w ramach programu Nvidia Cloud Partners.

AI na skalę przemysłową

Wspomniane partnerstwo wpisuje się w ambitne plany inwestycyjne Meta – spółka zapowiedziała przeznaczenie do 135 mld dolarów na rozwój AI do 2026 roku. Rozbudowa infrastruktury ma wspierać zarówno trenowanie modeli, jak i wnioskowanie oraz systemy rekomendacyjne obsługujące miliardy użytkowników.

Jednocześnie Meta rozwija własne układy AI i prowadzi rozmowy z Google w sprawie wykorzystania TPU. Przypomnijmy, że własne procesory rozwijają także Amazon i Microsoft. Rynek zastanawia się, czy wyspecjalizowane układy ASIC (Application-Specific Integrated Circuit) nie ograniczą w przyszłości dominacji GPU.

Analitycy pozostają jednak sceptyczni wobec scenariusza szybkiej utraty pozycji przez Nvidię. GPU pozostają najbardziej uniwersalną architekturą dla szerokiego spektrum zastosowań AI, podczas gdy układy dedykowane – jak TPU – mają bardziej ograniczone scenariusze użycia.

Sygnał dla rynku

Choć wartość umowy między gigantami nie została ujawniona, eksperci szacują ją na dziesiątki miliardów dolarów. Meta jest już jednym z największych klientów Nvidii i odpowiada – wraz z trzema innymi odbiorcami – za większość przychodów spółki.

Nowa umowa ma znaczenie wykraczające poza wolumen sprzedaży. To potwierdzenie, że Nvidia skutecznie rozszerza swoją obecność z rynku akceleratorów AI na pełną infrastrukturę centrów danych. Jeśli strategia się powiedzie, firma nie tylko utrzyma dominację w GPU, ale stanie się realnym graczem w segmencie CPU dla hiperskali.

Tagi

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *