InfrastrukturaCIOPREZENTACJA PARTNERA

Zapewniamy platformy, biblioteki i frameworki dedykowane zastosowaniom AI

Executive ViewPoint

Z Adamem Tomczakiem, Territory Development Executive CEE i Michałem Stochmalem, Commercial Business Development Executive w AMD rozmawiamy o zmianach rynkowych, optymalizacji architektury CPU m.in. pod kątem obsługi sztucznej inteligencji podejściu, mechanizmach wspierających wykorzystanie GenAI i inwestycjach AMD w tym obszarze.

Zapewniamy platformy, biblioteki i frameworki dedykowane zastosowaniom AI

Firma AMD od kilku lat systematycznie zwiększa udziały na rynku procesorów przeznaczonych do zastosowań serwerowych, ale też urządzeń końcowych. Jakie czynniki stoją u podstaw tak dynamicznego rozwoju?

Adam Tomczak (A.T.): Wzmacniamy naszą pozycję rynkową, co znajduje odbicie m.in. w kapitalizacji AMD. Faktem jest, że nasza dzisiejsza pozycja jest efektem transformacji, którą nasza firma przeszła dekadę temu. Wprowadzone wówczas zmiany zapewniły nam dużą elastyczność działania i swobodę w zakresie kreowania technologii. Umożliwiły także zoptymalizowanie kosztów funkcjonowania w wielu wymiarach naszej działalności.

Nie bez powodu postawiliśmy na współpracę z największym kontraktowym producentem mikroprocesorów. Postawiliśmy też na koncepcję tzw. chipletów, która zakłada wykorzystanie kilku mniejszych, mocno wyspecjalizowanych i zoptymalizowanych układów połączonych szybką magistralą komunikacyjną w ramach jednego CPU zamiast jednej, dużej kostki krzemu, na której umiejscowione są wszystkie podzespoły procesora.

Takie podejście pozwala ograniczyć koszty produkcji m.in. za sprawą zmniejszenia strat materiałowych. Bez strat na wydajności CPU. Dziś widać, że ta strategia okazała się trafna i AMD po raz kolejny wyznacza kierunki rozwoju technologii.

Co warto powiedzieć o stabilności działania komputerów wykorzystujących procesory AMD? W przeszłości nie była to najmocniejsza cecha Państwa układów…

A.T.: Generacyjnie są to bardzo odległe czasy. Dziś realia są diametralnie różne. Procesory serwerowe AMD są projektowane z myślą o długotrwałym działaniu pod obciążeniem. Przykładowo, dla procesora AMD EPYC generacji Milan, wskaźnik bezawaryjnej pracy MTBF (Mean Time Between Failures – przyp. red.) sięga 6,6 mln godzin, czyli 753 lata. Stabilność działania naszych CPU jest więc bezdyskusyjna.

Ten wątek regularnie pojawia się jednak podczas rozmów z klientami w nieco szerszym wymiarze. Zakładają oni nierzadko, że wybierając serwer wyposażony w 2 lub więcej procesorów mają zapewnioną redundancję na poziomie CPU. Tak nie jest. Dzisiejsze aplikacje korzystają równolegle z dostępnych procesorów oraz rdzeni. Awaria jednego z CPU powoduje więc utratę bieżących obliczeń. Choć, jak wspomniano wyżej, awarie procesorów AMD są niezwykle, niezwykle rzadkie.

Michał Stochmal (M.S.): Wysoką stabilnością działania – i relatywnie niską temperaturą pracy – charakteryzują się też procesory AMD Ryzen. Przeznaczone są do zastosowania w urządzeniach końcowych. Temperatura robocza jest o tyle istotna, że przekłada się nie tylko brak problemów z przegrzewaniem, ale też większy komfort pracy.

Potwierdzają to testy przeprowadzone przez zespół naszego partnera OEM, który postanowił porównać wydajność platformy AMD oraz Intel na przykładzie 10. generacji komputerów w segmencie Premium. Testy przeprowadzone przy użyciu oprogramowania PassMark pokazały kilkunastoprocentową przewagę wydajnościową AMD i to przy zachowaniu podobnego poziomu komfortu termicznego.

Jakimi możliwościami układy AMD dysponują w kontekście wsparcia obciążeń typowych dla AI?

A.T.: Jesteśmy prawdopodobnie jedynym producentem procesorów, który posiada w ofercie rozwiązania zapewniające wsparcie dla AI we wszystkich segmentach rynku – od centrum danych, po urządzenia klienckie.

M.S.: Jako pierwsi na rynku wprowadziliśmy rozwiązania dedykowane do obsługi AI do procesorów dla urządzeń końcowych. Nasi inżynierowie wykorzystali, znaną z rozwiązań programowalnych architekturę XDNA i zaimplementowali ją do układów AMD Ryzen. W systemach przeznaczonych do zastosowań klienckich zastosowaliśmy zatem rozwiązanie sprawdzone w dużych systemach korporacyjnych.

W ten sposób, w styczniu 2023 podczas targów CES zaprezentowaliśmy pierwszy na rynku procesor x86 wyposażony w moduł NPU – AMD Ryzen 7040. Odpowiedzią firmy Intel na nasze rozwiązanie były układy Core Ultra, które pojawiły się na rynku kilkanaście miesięcy później.

Z kolei wraz z premierą procesorów AMD Ryzen z serii 8000 jako pierwsi zaoferowaliśmy rozwiązania wyposażone moduł NPU dla komputerów desktop. Nasza konkurencja do tej pory nie posiada takich procesorów w tej kategorii komputerów.

Dziś na rynku konsumenckim dostępne są już komputery korzystające z trzeciej generacji procesorów AMD Ryzen AI 300, a podczas ostatnich targów IFA w Berlinie ogłoszone zostały urządzenia biznesowe wyposażone w najnowsze chipy. Będą one zgodne ze standardem Microsoft Copilot+ PC. Zaoferują ponad 50 TOPS mocy obliczeniowej układu NPU, najwięcej na rynku.

A.T.: W naszej ofercie mamy dziś także dedykowane do zastosowań serwerowych akceleratory AMD Instinct 3. generacji. Charakteryzują się bardzo dużą wydajnością i efektywnością energetyczną. Specyfikacja sprzętowa tych rozwiązań już w poprzedniej generacji była na konkurencyjnym poziomie do rozwiązań oferowanych wówczas przez firmę NVIDIA. Nasz sprzęt jest wysoce wydajny, charakteryzuje się niższymi od konkurencji kosztami posiadania i oferuje szerszą funkcjonalność w zakresie obsługiwanych parametrów AI.

Niemniej, świat AI to nie tylko sprzęt, to także oprogramowanie. Mocno inwestujemy w dalszy rozwój w tym obszarze, czego przykładem jest niedawne przejęcie fińskiej Silo AI. Jest to największe, prywatne laboratorium AI w Europie. Ta transakcja będzie mieć kluczowe znaczenie dla dalszego rozwoju naszej działalności w tym obszarze.

Ostatnio zainwestowaliśmy też w ZT Systems. Jest to światowy potentat w przygotowaniu i produkcji dedykowanych dla AI rozwiązań serwerowych. Co ważne, w odróżnieniu od oferowanego przez NVIDIA oprogramowania zarządzającego platformą sprzętową dedykowaną dla AI, stawiamy na otwarte rozwiązania w postaci platformy ROCm. Rozwiązanie to stanowi klucz naszego wzrostu i sukcesu w obszarze AI. Mamy zatem biblioteki i frameworki, które są ze sobą kompatybilne, a platforma sprzętowa pozostaje dla nich w pełni transparentna. Takie podejście jest znaczącą przewagą AMD.

W jaki sposób zmiany zachodzące w podejściu do AI wpływają na potrzeby klientów biznesowych względem platform serwerowych?

A.T.: Myślę, że ostatni rok przyniósł tu znaczące postępy. Większość organizacji zaczyna rozumieć, że strategia AI w mniejszym, bądź większym zakresie musi być sprawdzona i przetestowana. Pojawia się również coraz więcej projektów nakierowanych na wykorzystanie AI. Klienci zapewne zdecydują się raczej na wykorzystanie gotowych produktów komercyjnych lub wykorzystają istniejące, otwarte modele, które dotrenują na własnych danych dopasowując je pod kątem indywidualnych potrzeb i do konkretnych zastosowań.

Należy też wyważyć rodzaje obciążeń związanych z AI. Czym innym jest trening modelu, a czym innym inferencja, czyli efektywne wykorzystanie już wytrenowanego modelu. Naturalnie, do szkolenia modeli AI potrzebne są przede wszystkim kosztowne układy GPU, najlepiej w dużej ilości – setkach czy tysiącach sztuk. Specyfika inferencji jest jednak inna i o ile GPU może pomóc, to nie jest kluczowe.

Okazuje się, że procesory AMD EPYC z racji na swoją architekturę bardzo dobrze radzą sobie z obciążeniami typowymi dla użytkowania gotowych modeli AI. Posiadamy analizy, z których wynika, że jeśli obciążenie data center algorytmami AI jest mniejsze niż 70%, to zastosowanie GPU jest ekonomicznie nieuzasadnione, ponieważ serwery oparte na procesorach AMD EPYC poradzą sobie wystarczająco dobrze. Rachunek kosztów pokaże zaś, że będą lepszym rozwiązaniem od zakupu dedykowanych rozwiązań opartych na GPU.

Tagi

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *