Infrastruktura
Do stworzonego z NVIDIA Dell AI Factory dołącza Dell AI Data Platform
Dell Technologies wprowadza na rynek platformę Dell AI Data Platform. Dwa lata wcześniej firma wprowadziła na rynek – także we współpracy z we współpracy z NVIDIA – Dell AI Factory. Rozwiązania te pomagają firmom przenieść projekty AI z fazy testowej do produkcji na dużą skalę.

Platforma Dell AI Data Platform, będąca kluczowym komponentem Dell AI Factory z NVIDIA, aktywuje dane firmowe na potrzeby sztucznej inteligencji, zapewniając jednocześnie bezpieczeństwo, zarządzanie i wysoką wydajność. Klienci zauważają nawet 12-krotnie szybsze indeksowanie wektorów, 3-krotnie szybsze przetwarzanie danych i 19-krotnie niższy współczynnik TTFT w porównaniu z tradycyjnymi metodami obliczeniowymi. TTFT to kluczowa metryka opóźnienia w sztucznej inteligencji, mierząca czas, jaki upływa od momentu wysłania zapytania przez użytkownika do momentu otrzymania pierwszej części odpowiedzi.
Automatyzacja całego cyklu życia danych AI
Dell Data Orchestration Engine, oparty na technologii uzyskanej dzięki przejęciu firmy Dataloop, zmienia sposób, w jaki przedsiębiorstwa operacjonalizują dane dla AI. Ten silnik typu „no-code” i „low-code” koordynuje cykl życia danych dla sztucznej inteligencji. Automatycznie wykrywając, oznaczając, wzbogacając i przekształcając dane ustrukturyzowane, nieustrukturyzowane i wiele innych typów danych wejściowych w zarządzane zbiory gotowe do wykorzystania przez algorytmy AI.
Platforma Data Orchestration Engine Marketplace umożliwia organizacjom wdrażanie gotowych rozwiązań bez konieczności budowania ich od podstaw dzięki starannie dobranej bibliotece mikrousług NVIDIA NIM, NVIDIA AI Blueprints i ponad 200 innym modelom, aplikacjom i szablonom.
Rozwiązania Dell Technologies obsługują najnowszą technologię NVIDIA AI-Q Blueprint, pomagając firmom w budowaniu konfigurowalnych agentów AI. Integracja z silnikiem danych napędzanym przez NVIDIA w platformie Dell AI Data Platform umożliwia przygotowywanie, wyszukiwanie i wnioskowanie danych w oparciu o dane ustrukturyzowane i nieustrukturyzowane. Klienci zyskują także dostęp do rosnącej biblioteki projektów NVIDIA, mikrousług NIM i Nemotron 3 Supermodel na Dell Enterprise Hub w Hugging Face.
Nowy AI Assistant w Dell Data Analytics Engine wnosi z kolei konwersacyjny interfejs NLP do analityki SQL. Użytkownicy biznesowi pytają, wizualizują i współpracują na kontrolowanych danych – intuicyjnie, bez SQL. Dzięki temu dostęp do danych staje się bardziej powszechny, proces podejmowania decyzji ulega usprawnieniu, a głębsze wnioski można uzyskać szybciej, co ma szczególne znaczenie dla organizacji wdrażających Agentic AI, potrzebujących dostępu do danych ustrukturyzowanych.
Nowa architektura pamięci masowej dla sztucznej inteligencji
Tradycyjna architektura pamięci masowej zwalnia wraz ze wzrostem skali, powodując powstawanie wąskich gardeł, które powodują gorsze wykorzystanie procesorów graficznych. Silniki pamięci masowej firmy Dell, dostosowane do potrzeb AI, eliminują ten problem za pomocą dedykowanych architektur.
Dell Lightning File System zapewnia np. wyjątkową wydajności w środowiskach szkolenia i wnioskowania AI, osiągając przepustowość do 150 GB/s na szafę, oznacza to do 20 razy wyższą wydajność w porównaniuz tradycyjnymi, skalowalnymi systemami plików opartymi wyłącznie na pamięci Flash oraz do 2 razy większą przepustowość na rack.
Z kolei Dell Exascale Storage, to jedyna platforma pamięci masowej typu „3 w 1” zaprojektowana z myślą o zastosowaniach AI i HPC. Zapewnia zespołom IT elastyczność we wdrażaniu najlepszego w swojej klasie oprogramowania do obsługi systemów plików, obiektów oraz równoległych systemów plików firmy Dell na najnowszych serwerach Dell PowerEdge.
Klienci mogą przydzielać zasoby pamięci masowej Dell PowerScale, Dell ObjectScale i/lub Dell Lightning File System na wspólnej platformie sprzętowej, aby obsługiwać najbardziej wymagające środowiska AI i HPC, takie jak HFT (handel wysokich częstotliwości) i neoclouds. Dzięki obsłudze kart SuperNIC NVIDIA CX-8 i CX-9 oraz planowanej łączności sieciowej do 800 GbE, Exascale zapewnia wydajność odczytu do 6 TB/sekundę na szafę.
Platforma Dell PowerScale z architekturą Parallel Network File System (pNFS) osiąga nawet sześciokrotną poprawę wydajności przy obsłudze dużych plików w środowiskach AI w porównaniu z protokołem NFSv3. Dzięki temu obciążenia AI wymagające intensywnego wykorzystania GPU są stale zasilane danymi. Pozwala to uniknąć wąskich gardeł w całym łańcuchu przetwarzania i zapewnia, że drogie zasoby GPU nie „stoją bezczynnie”.
„Największym wyzwaniem, przed jakim stają przedsiębiorstwa podczas wdrażania pilotażowych projektów AI do środowiska produkcyjnego, jest uporządkowanie posiadanych już danych i wykorzystanie ich w praktyce. Dell AI Data Platform automatyzuje cały cykl życia danych oraz zapewnia szybkość i skalowalność wymaganą przez obciążenia związane ze sztuczną inteligencją. Zadbaliśmy o integrację, dzięki czemu klienci mogą szybciej wdrażać rozwiązania, bez obaw skalować je i osiągać realne korzyści” – mówi Travis Vigil, starszy wiceprezes, ISG Product Management, Dell Technologies.
„Przejście na autonomicznych agentów wymaga radykalnie innego podejścia do infrastruktury danych, z automatyczną koordynacją procesów, pamięcią masową natywną dla sztucznej inteligencji i wydajnością zoptymalizowaną pod kątem GPU. Całość musi być zaprojektowana tak, aby te elementy ze sobą współdziałały” – podkreśla Jason Hardy, wiceprezes ds. technologii pamięci masowej, NVIDIA.
Infrastruktura wspierająca AI od biurka po centrum danych
Dell Technologies oferuje różnego typu platformy obsługujące obciążenia AI. Przykładowo Dell Pro Max z GB10 to specjalistyczne superkomputery AI do budowania i uruchamiania AI, oferujące wymaganą moc obliczeniową, pamięć i niezawodność dla autonomicznych przepływów pracy AI. Z NVIDIA NemoClaw oraz NVIDIA OpenShell klienci budują bezpieczne, długo działające agentowe rozwiązania lokalnie. Z kolei stacje robocze Dell Pro Precision zapewniają moc i możliwości rozbudowy, których potrzebują programiści AI i analitycy danych.
Serwer PowerEdge XE9812 – chłodzony cieczą i wykorzystujący platformę NVIDIA Vera Rubin NVL72 – można wykorzystać do treningu AI i wnioskowania w czasie rzeczywistym. Natomiast PowerEdge XE9880L, XE9882L i XE9885L to serwery chłodzone cieczą, wyposażone w układ NVIDIA HGX Rubin NVL8, przyspieszające wydajność AI w istniejących centrach danych bez zmian w przestrzeni i zasilaniu.
Do obciążeń typu Enterprise w centrum danych wykorzystać można serwery PowerEdge R770, R7715 i R7725 skonfigurowane z nową kartą graficzną NVIDIA RTX PRO 4500 Blackwell Server Edition . W modelach PowerEdge R9822 i M9822 debiutuje zaś procesor NVIDIA Vera, dzięki czemu organizacje mają większy wybór w zakresie wymagających obciążeń korporacyjnych.
Warto dodać, że Dell jest pierwszym producentem OEM, który zintegrował NVIDIA NVQLink z CUDA-Q w serwerach PowerEdge z infrastrukturą NVIDIA AI, umożliwiając przedsiębiorstwom i instytucjom badawczym eksplorację nowych zastosowań obliczeń kwantowo-klasycznych.
Może przyspieszyć to prace nad lekami i symulacjami materiałów poprzez połączenie mocy obliczeniowej Quantum Processing Units z akcelerowanymi obliczeniami NVIDIA do sterowania systemami kwantowymi i korekcji błędów na sprawdzonym fundamencie serwerów Dell PowerEdge.
„Infrastruktura AI powstaje wszędzie, każda firma będzie z niej korzystać, każdy kraj będzie ją budować, a to wymaga zintegrowanych platform danych, skalowalnej infrastruktury i wiedzy specjalistycznej w zakresie wdrażania. Dell Technologies zapewnia wszystkie te trzy elementy, z firmą NVIDIA w centrum. Dell AI Factory z firmą NVIDIA to sprawdzony projekt infrastrukturalny dla każdego etapu rozwoju AI, napędzającego kolejną erę przemysłową” – podsumowuje współpracę z Dell Technologies Jensen Huang, założyciel i dyrektor generalny firmy NVIDIA.







