Sztuczna inteligencjaBranża ITRynek

AMD przedstawia strategię AI do 2030 roku

Podczas konferencji Advancing AI 2025, firma zaprezentowała zintegrowany, otwarty ekosystem AI – od nowych akceleratorów graficznych i infrastruktury obliczeniowej, po rozwój oprogramowania open source i współpracę z czołowymi graczami w branży, takimi jak Meta, OpenAI czy Microsoft. Firma ogłosiła też ambitny cel – osiągnięcie 20-krotnego wzrostu efektywności energetycznej AI do 2030 roku.

AMD przedstawia strategię AI do 2030 roku

„Wkraczamy w kolejną fazę AI, napędzaną przez otwarte standardy, wspólną innowację i rosnącą pozycję AMD w globalnym ekosystemie partnerów” – podkreśliła podczas wydarzenia dr Lisa Su, CEO AMD.

Kluczowe nowości:

  • Instinct MI350 Series – nowe GPU do zastosowań w generatywnej AI i HPC, oferujące 4× więcej mocy obliczeniowej i 35× większą wydajność w inferencji względem poprzedniej generacji. Model MI355X oferuje do 40% lepszy stosunek tokenów na dolara w porównaniu z konkurencją.
  • Infrastruktura AI w skali szafy (rack-scale) – wdrażana już w chmurze OCI, oparta na akceleratorach MI350, procesorach EPYC 5. generacji i kartach sieciowych Pensando.
  • Szafa „Helios” – przyszłościowe rozwiązanie (po 2026 r.), oparte na GPU MI400, układach EPYC „Venice” (Zen 6) i nowej generacji kartach sieciowych „Vulcano”.
  • ROCm 7 – najnowsza wersja otwartego stosu oprogramowania AI AMD, z rozszerzoną kompatybilnością, ulepszonym wsparciem dla frameworków i nowymi narzędziami dla deweloperów.
  • AMD Developer Cloud – szeroko dostępna platforma dla programistów AI, wspierająca szybki rozwój i wdrażanie rozwiązań opartych na ROCm i sprzęcie AMD.

Przedstawiciele AMD poinformowali również, iż dzięki akceleratorom AMD Instinct z serii MI350 udało się przebić założenia 5-letniego planu 30-krotnej poprawy efektywności energetycznej przy trenowaniu AI oraz zadaniach HPC, ponieważ osiągnięto 38-krotnie lepszy wskaźnik. Jednocześnie przedstawiono nowy cel na 2030 rok, który zakłada 20-krotną poprawę efektywności systemów rackowych względem 2024 roku. Dzięki temu typowy model AI, który obecnie wymaga wykorzystania aż 275 szaf, będzie mógł być trenowany przez mniej niż jedną – przy założeniu, że będzie w pełni obciążona. Pozwoli to oszczędzić nawet 95% energii.

Jak podkreślano podczas konferencji, siedem z dziesięciu największych firm AI wdraża obecnie modele AI na akceleratorach Instinct. I tak, Meta wykorzystuje MI300X do inferencji modeli Llama 3 i 4, a ponadto testuje już nowe MI350. OpenAI, xAI i Microsoft również intensyfikują swą współpracę z AMD. Celem jest nie tylko wydajność, ale także energooszczędność i otwartość w projektowaniu rozwiązań AI nowej generacji.

Nowa ofensywa AMD w obszarze AI wskazuje na ambicję stworzenia otwartej alternatywy dla zamkniętych platform AI, dostarczając jednocześnie rozwiązania, które mogą realnie konkurować z gigantami pokroju Nvidii. Inwestycja w otwarte standardy, efektywność energetyczną i skalowalność stawia AMD w roli kluczowego gracza w wyścigu o dominację w generatywnej AI.

Tagi

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *