Podczas konferencji Advancing AI 2025, firma zaprezentowała zintegrowany, otwarty ekosystem AI - od nowych akceleratorów graficznych i infrastruktury obliczeniowej, po rozwój oprogramowania open source i współpracę z czołowymi graczami w branży, takimi jak Meta, OpenAI czy Microsoft. Firma ogłosiła też ambitny cel - osiągnięcie 20-krotnego wzrostu efektywności energetycznej AI do 2030 roku. „Wkraczamy w kolejną fazę AI, napędzaną przez otwarte standardy, wspólną innowację i rosnącą pozycję AMD w globalnym ekosystemie partnerów” - podkreśliła podczas wydarzenia dr Lisa Su, CEO AMD. Kluczowe nowości: Instinct MI350 Series - nowe GPU do zastosowań w generatywnej AI i HPC, oferujące 4× więcej mocy obliczeniowej i 35× większą wydajność w inferencji względem poprzedniej generacji. Model MI355X oferuje do 40% lepszy stosunek tokenów na dolara w porównaniu z konkurencją. Infrastruktura AI w skali szafy (rack-scale) - wdrażana już w chmurze OCI, oparta na akceleratorach MI350, procesorach EPYC 5. generacji i kartach sieciowych Pensando. Szafa „Helios” - przyszłościowe rozwiązanie (po 2026 r.), oparte na GPU MI400, układach EPYC „Venice” (Zen 6) i nowej generacji kartach sieciowych „Vulcano”. ROCm 7 - najnowsza wersja otwartego stosu oprogramowania AI AMD, z rozszerzoną kompatybilnością, ulepszonym wsparciem dla frameworków i nowymi narzędziami dla deweloperów. AMD Developer Cloud - szeroko dostępna platforma dla programistów AI, wspierająca szybki rozwój i wdrażanie rozwiązań opartych na ROCm i sprzęcie AMD. Przedstawiciele AMD poinformowali również, iż dzięki akceleratorom AMD Instinct z serii MI350 udało się przebić założenia 5-letniego planu 30-krotnej poprawy efektywności energetycznej przy trenowaniu AI oraz zadaniach HPC, ponieważ osiągnięto 38-krotnie lepszy wskaźnik. Jednocześnie przedstawiono nowy cel na 2030 rok, który zakłada 20-krotną poprawę efektywności systemów rackowych względem 2024 roku. Dzięki temu typowy model AI, który obecnie wymaga wykorzystania aż 275 szaf, będzie mógł być trenowany przez mniej niż jedną - przy założeniu, że będzie w pełni obciążona. Pozwoli to oszczędzić nawet 95% energii. Jak podkreślano podczas konferencji, siedem z dziesięciu największych firm AI wdraża obecnie modele AI na akceleratorach Instinct. I tak, Meta wykorzystuje MI300X do inferencji modeli Llama 3 i 4, a ponadto testuje już nowe MI350. OpenAI, xAI i Microsoft również intensyfikują swą współpracę z AMD. Celem jest nie tylko wydajność, ale także energooszczędność i otwartość w projektowaniu rozwiązań AI nowej generacji. Nowa ofensywa AMD w obszarze AI wskazuje na ambicję stworzenia otwartej alternatywy dla zamkniętych platform AI, dostarczając jednocześnie rozwiązania, które mogą realnie konkurować z gigantami pokroju Nvidii. Inwestycja w otwarte standardy, efektywność energetyczną i skalowalność stawia AMD w roli kluczowego gracza w wyścigu o dominację w generatywnej AI.