Sztuczna inteligencjaInfrastrukturaBranża ITRynek

Nvidia celuje w bilion dolarów z chipów AI

Nvidia prognozuje, że do 2027 roku popyt na jej układy sztucznej inteligencji – zwłaszcza platformy Blackwell i Rubin – może osiągnąć wartość co najmniej 1 bln dolarów. Firma przesuwa strategiczny akcent z trenowania modeli na ich masowe wykorzystanie w czasie rzeczywistym, licząc na rosnące zapotrzebowanie ze strony globalnych wdrożeń AI.

Nvidia celuje w bilion dolarów z chipów AI

Podczas konferencji GTC w San Jose, Jensen Huang, prezes Nvidii, przedstawił wizję kolejnego etapu rozwoju sztucznej inteligencji. Po latach dominacji inwestycji w trenowanie modeli, firmy technologiczne koncentrują się obecnie na ich obsłudze w skali setek milionów użytkowników, czyli na tzw. inferencji. „Nadszedł czas na wnioskowanie. A popyt wciąż rośnie” – podkreślił Jensen Huang, cytowany przez Reutersa.

To właśnie ten segment ma wygenerować największe zapotrzebowanie na infrastrukturę obliczeniową w najbliższych latach. Według szacunków spółki, wartość zamówień na układy AI może wzrosnąć z ok. 500 mld dolarów prognozowanych wcześniej na 2026 rok, do wspomnianego co najmniej 1 bln dolarów rok później.

Nowe chipy i systemy do obsługi AI w czasie rzeczywistym

Kluczową rolę w strategii mają odegrać architektury Blackwell oraz Rubin, a także nowy procesor centralny Vera, oraz rozwiązania oparte na technologii startupu Groq. Nvidia chce w ten sposób konkurować nie tylko z producentami GPU, lecz także z CPU i układami niestandardowymi rozwijanymi m.in. przez Google czy Intel.

Firma zakłada, że proces obsługi zapytań przez AI będzie podzielony na dwa etapy: przygotowanie danych wejściowych („prefill”) oraz generowanie odpowiedzi („decode”). Różne typy procesorów mają optymalizować każdy z tych kroków, zwiększając wydajność systemów działających w czasie rzeczywistym.

Rubin – następca Blackwella – ma być wielokrotnie szybszy zarówno w trenowaniu modeli, jak i w inferencji, co ma umożliwić obsługę rosnącej liczby aplikacji generatywnych i agentowych.

Ekosystem zamiast pojedynczego układu

Nvidia coraz wyraźniej odchodzi od sprzedaży samych chipów na rzecz kompletnych systemów AI obejmujących sprzęt, oprogramowanie i sieci. Zapowiedziana podczas konferencji platforma Feynman, planowana na 2028 rok, ma integrować różne komponenty infrastruktury obliczeniowej w jedną architekturę.

Firma rozwija także rozwiązania dla autonomicznych agentów AI, w tym narzędzia zwiększające kontrolę prywatności i bezpieczeństwa. Zdaniem analityków, oznacza to przejście branży od eksperymentów do wdrożeń produkcyjnych na ogromną skalę.

Lider pod presją konkurencji i oczekiwań inwestorów

Prognoza biliona dolarów pojawia się w momencie rosnących pytań o tempo dalszego wzrostu spółki, która w ostatnich latach stała się symbolem boomu AI i osiągnęła rekordową wycenę rynkową.

Według analityków, utrzymujący się popyt na infrastrukturę AI wskazuje jednak, że rynek wchodzi dopiero w fazę masowej adopcji. Wraz z przechodzeniem od trenowania modeli do ich codziennego wykorzystania zapotrzebowanie na moc obliczeniową może rosnąć jeszcze szybciej niż dotychczas.

W efekcie rywalizacja w sektorze półprzewodników przesuwa się z wyścigu o najszybszy procesor do walki o dominację w całych ekosystemach sztucznej inteligencji – od centrów danych po aplikacje obsługujące setki milionów użytkowników.

Tagi

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *