Branża ITAdvertorialExecutive ViewPoint
Future Made in Poland to także zastosowanie polskich modeli LLM w polskich rozwiązaniach
EXECUTIVE VIEWPOINT
Z Dariuszem Piotrowskim, dyrektorem zarządzającym Dell Technologies w Polsce, rozmawiam o rosnącym popycie na serwery z GPU, widocznym także w zamówieniach, które w tym roku finansowym przekroczyły już te z zeszłego, staniu się orkiestratorem całego łańcucha wartości AI, edukacji polskiego rynku oraz podejściu do suwerenności danych.

Dużo mówi się o dostępności sprzętu IT, zwłaszcza serwerów z deficytowymi układami GPU. Czy posiadanie fabryki w Łodzi ułatwia realizację zamówień?
Nie jest wielką tajemnicą, że na szybkość dostaw – oprócz sprawnego zespołu – wpływa długość łańcuchów dostaw, a fabryka w Polsce nieprawdopodobnie je skraca. Warto podkreślić, w Łodzi produkujemy komputery stacjonarne i serwery od 18 lat. W tym czasie wyprodukowano tam ponad 61 mln urządzeń.
Aby jeszcze usprawnić ten proces, obok naszej fabryki w Łodzi powstaje centrum logistyczne. Pozwoli ono znacząco skrócić dostawy m.in. dlatego, że znajdować się w nim będą zapasy części od naszych poddostawców. Mając je ulokowane w centrum logistycznym obok fabryki, będziemy mogli znacząco przyspieszyć produkcję.
Oprócz tego, w fabryce Dell Technologies pod Łodzią uruchomiona została najnowocześniejszą na świecie linia produkcyjna serwerów chłodzonych cieczą.
Oczywiście nie należy zapominać, że Dell Technologies w Polsce to także dział handlowy i centrum badawczo-rozwojowe. Żaden inny kraj w Europie nie ma wszystkich czterech komponentów – przedstawicielstwa handlowego, fabryki, centrum logistycznego i działu R&D.
Jednym z elementów naszej oferty jest platforma Dell Data Lakehouse. Stojąca za nią koncepcja ma na celu to, aby przechowywane w tym środowisku dane były bezpieczne, zanalizowane i wyczyszczone.
Od lat to powtarzam, Polska jest ważna dla Della, a Dell jest ważny dla Polski.
Fabryka pod Łodzią jest jedyną w Europie?
W Europie produkujemy jeszcze elementy naszych macierzy w Cork w Irlandii.
Wróciłbym teraz do nieuchronnego tematu sztucznej inteligencji. Gdzieś przeczytałem, że chcecie być nie tylko dostawcą sprzętu, ale „orkiestratorem całego łańcucha wartości AI”. Co to znaczy?
Na rozwiązania AI składają się trzy komponenty. Sztuczna inteligencja nie zadziała bez: algorytmów, mocy obliczeniowej i danych. Oczywiście Dell zna się bardzo dobrze na dostarczaniu mocy obliczeniowej.
Ale istotnym elementem naszej oferty są też systemy przechowywania i przetwarzania danych. Pozwalają klasyfikować i przygotowywać dane na potrzeby AI. Jednym z elementów naszej oferty jest platforma Dell Data Lakehouse. Stojąca za nią koncepcja ma na celu to, aby przechowywane w tym środowisku dane były bezpieczne, zanalizowane i wyczyszczone.
Potrafimy – z naszymi działami serwisowymi i partnerami – pokazać klientowi konkrety: „to jest metodologia przygotowania danych na potrzeby trenowania modeli AI”. Dodatkowo mamy działy, które zajmują się tzw. Validated Designs, czyli gotowymi, zweryfikowanymi przez nas projektami infrastruktury IT pod konkretne zastosowania.
Przykładowo – mamy szpital, który chce wykorzystać dane pacjentów do badania przebiegu chorób. Analizujemy tę potrzebę z naszymi zespołami. Badamy frameworki, z których klient będzie potencjalnie korzystał. Następnie analizujemy zapotrzebowanie takiego rozwiązania na moc obliczeniową. Nie chcemy „strzelać z armaty do wróbla”. Szczerze mówimy klientowi: nie kupuj nadmiarowo. Zwalidowaliśmy bowiem wymagania sprzętowe pod to konkretne zastosowanie.
Tworzymy także Dell Private Cloud, w ramach której proponujemy całą, niezbędną architekturę dla danego modelu AI. Składają się na nią: moc obliczeniowa, pamięć masowa i urządzenia sieciowe. Dell jest dostawcą, który rozumie cały stos technologiczny.
Testujemy modele LLM, zarówno komercyjne, jak i open-source, pod kątem konkretnych zastosowań. Analizujemy też np. to, jak – w najlepszy sposób – zagregować dane w firmie energetycznej lub e-commerce. Firmy przemysłowe z kolei oczekują platform wspierających Computer Vision. To zupełnie innego typu zadania niż przetwarzanie danych transakcyjnych.
Tworzymy także Dell Private Cloud, w ramach której proponujemy całą, niezbędną architekturę dla danego modelu AI. Składają się na nią: moc obliczeniowa, pamięć masowa i urządzenia sieciowe. Dell jest dostawcą, który rozumie cały stos technologiczny.
Mamy tysiące klientów na świecie i wymieniamy się informacjami na temat zrealizowanych u nich projektów. Pozwala nam to umieścić projekty polskich klientów w konkretnym kontekście, uwzględniającym zarówno ich wielkość, jak i sektor, w którym działają. Pomaga nam w tym Dell Sales Chat, nasze wewnętrzne narzędzie, wykorzystujące sztuczną inteligencję do wsparcia zespołu sprzedaży, na przykład w poszukiwaniu informacji czy przygotowaniu oferty.
Jesteśmy więc na szpicy całej tej transformacji nie tylko jako dostawca infrastruktury IT i gotowych produktów, ale i firma, która sama z nich korzysta.
Czyli nie jest tak, że szewc bez butów chodzi?
Wręcz przeciwnie (śmiech). Jest wiele, wewnętrznych projektów GenAI w Dell Technologies. Niestety nie mogę dzielić się szczegółami na ich temat. Projekty te przenoszą nas w zupełnie inny sposób działania. Po 40 latach w Dellu zmienia się zupełnie sposób prognozowania, obsługi klienta czy monitorowania naszego sprzętu funkcjonującego u nich. To jest prawdziwa rewolucja. Naprawdę nie widziałem czegoś podobnego.
Mamy do czynienia w Dellu z ogromną ilością automatyzacji. Do Dell Sales Chat wprowadziliśmy agentów AI. Mogę poprosić go nie tylko o opis produktu, ale też o oszacowanie TCO przy określonych parametrach infrastruktury IT.
Agent AI może mi też przygotować przed spotkaniem kompleksowe dane o kliencie i jego potrzebach, tzw. 360 View, także korzystając z publicznie dostępnych danych. Nie ukrywam, że klienci doceniają nasze przygotowanie.
Dziś wszyscy mówią o Fabrykach AI, jak Dell podchodzi do tej koncepcji?
O fabryce mówimy od ponad dwóch lat. Byliśmy chyba jedną z pierwszych firm, która ogłosiła dostępność AI Factory. Ważne jest, aby nie traktować AI jako gotowego produktu. To technologia ogólnego zastosowania, tak jak elektryczność. Kiedy się pojawiła, mało kto mógł przewidzieć powstanie np. telewizora czy telefonu komórkowego. Te trzeba było dopiero wymyśleć. Elektryczność była jedynie bazą do kolejnych wynalazków.
Tak samo jest dziś z AI Factory. Mamy cały framework i środowisko IT, na bazie których dostarczamy wybrane modele AI. Klient zaś najczęściej ma dane, którymi je zasili.
Czy sprzedajecie gotowe Fabryki AI?
Oferujemy wszystko poza algorytmami. Nie jesteśmy i nie będziemy kolejnym OpenAI. Rozumiejąc zagadnienia danych oraz mocy obliczeniowej już dziś proponujemy rozwiązanie, które kiedyś było olbrzymim centrum danych, a teraz zmieści się w plecaku.
Jest wiele, wewnętrznych projektów GenAI w Dell Technologies. Przenoszą nas w zupełnie inny sposób działania. Po 40 latach w Dellu zmienia się zupełnie sposób prognozowania, obsługi klienta czy monitorowania naszego sprzętu funkcjonującego u nich. To jest prawdziwa rewolucja.
ChatGPT 3,5 miał 175 mld parametrów. Dell oferuje dziś stację roboczą o wymiarach 15 x 15 x 5 cm, w której znajduje się karta NVIDIA Grace Blackwell, obsługująca modele o 200 mld parametrów. Co więcej można dokładając kolejne elementy – drugi zestaw z GB10 – zrobić z tego 400 mld parametrów i więcej.
Firma o dowolnej skali, mając model LLM i swoje dane, może stworzyć minimalnym wysiłkiem własną Fabrykę AI. Już teraz taki serwer kosztuje kilka tysięcy dolarów. Świat błyskawicznie się zmienia. To, co było jeszcze 2-3 lata domeną Big-Tech’ów, dziś jest dostępne niemalże dla wszystkich. Następuje ogromna demokratyzacja AI!
Dell oferuje rozwiązania w dowolnej skali – zaczyna od najmniejszych AI PC, aż po serwery instalowane w gigantycznym superkomputerze Colossus z 200 000 procesorów GPU. Maszyna ta posłużyła do wytrenowania modelu Grok 3 przez firmę Elona Muska xAI. W tym centrum danych umieszczono szafy rack chłodzone cieczą.
Kiedyś na jeden rack przypadało ok. 10-12 kW mocy. Teraz nasi klienci mogą kupić szafę rack o gęstości mocy 470 kW. Wkrótce nastąpi prawdopodobnie podwojenie tej liczby. Oczywiście w „tradycyjnym” centrum danych nadal będzie to zapewne bliżej 50 kW na szafę rack.
Wspomniałeś o AI PC. Czy klienci są już na to gotowi?
Na świecie powinno zostać wymienionych ok. 1,5 mld komputerów PC, m.in. w związku z końcem wsparcia dla Windows 11, rewolucją AI, ale też zamortyzowały się zakupy sprzętu dokonywane masowo w czasie lockdownu 4-5 lat temu.
Jak w przypadku każdej zmiany na rynku IT, potrzebna jest edukacja. O możliwościach tego typu urządzeń mówią dziś wszyscy dostawcy IT i twórcy oprogramowania. Ważne jest, aby zrozumieć, że – wraz z rozwojem zastosowań narzędzi AI – potrzebna będzie coraz większa moc obliczeniowa jak najbliżej użytkownika końcowego. To jest radykalna zmiana w porównaniu do trendu cloud computing, w którym żyliśmy przez ostatnie 10-15 lat.
Chmura pozostanie. Ma swoje ugruntowane miejsce. Ale komplementarnie powstaje duży megatrend. Na każdym komputerze przechowujemy dane i pracujemy z nimi na lokalnym środowisku IT. AI, aby dobrze funkcjonować potrzebuję kontekstu danych.
ChatGPT 3,5 miał 175 mld parametrów. Dell oferuje dziś stację roboczą o wymiarach 15 x 15 x 5 cm, w której znajduje się karta NVIDIA Grace Blackwell, obsługująca modele o 200 mld parametrów. Co więcej można dokładając kolejne elementy – drugi zestaw z GB10 – zrobić z tego 400 mld parametrów i więcej.
Jeśli używamy modeli LLM jako rozszerzonej wyszukiwarki, której od czasu do czasu zadajemy pytanie, to oczywiście nie ma o czym rozmawiać. Ale jeżeli pracujemy z tym narzędziem przez kilka dni, to zaczynamy mieć wrażenie, jakbyśmy pracowali ze współpracownikiem, który rozumie nas indywidualnie.
Dzieje się tak, bo dostarczamy narzędziom Generatywnej AI coraz większy kontekst lokalnych danych. Danych o nas; naszych zapytaniach; informacji, do których sięgamy; dokumentów, które tworzymy.
Jeśli przeniesiemy mentalnie to podejście do wspomnianego szpitala, firmy energetycznej, firmy z sektora e-commerce…
…redakcji.
Także redakcji. Do modelu LLM możecie „wrzucić” kontekst wszystkich, swoich artykułów. Wiecie, które były najlepiej czytane. Jeżeli AI – na tej podstawie – nauczy się tego kontekstu, to będzie coraz doskonalsze we wsparciu Waszej pracy. Nauczy się np. redagować teksty.
Ale jest to robione lokalnie. Podobnie zresztą, jak narzędzia Computer Vision stosowane na liniach produkcyjnych. To tam właśnie trzeba przenieść AI i wspierającą ją moc obliczeniową. Dużo firm tak działa. To jest fundamentalna zmiana i nowy trend – dostarczania modeli AI coraz bliżej miejsca wytwarzania danych.
Mieliśmy gigantyczną falę globalizacji i otwartości wszystkich na wszystko. Na tej fali działaliśmy przez 20-30 lat. Dziś jesteśmy w przeciwnym megatrendzie. Świat się atomizuje, regionalizuje. Słyszymy coraz częściej o cyfrowej suwerenności.
Dużą część danych chcemy mieć u siebie i przetwarzać lokalnie. Przy spadającym koszcie mocy obliczeniowej i rozwoju modeli LLM, ten trend jest nie do zatrzymania.
Co z dostępnością niezbędnych komponentów do budowy fabryk AI, czyli GPU?
Filozofia rozwoju Dell AI Factory obejmuje również dostawców, którzy tworzą ją z nami. W przypadku kart GPU blisko współpracujemy nie tylko z NVIDIA, ale także AMD i Intelem.
W skali globalnej popyt na serwery z GPU to jest coś czego w Dellu nie obserwowaliśmy co najmniej od 8 lat, gdy ja pracuję w tej firmie. W I połowie tego roku do klientów dostarczyliśmy sprzęt o wartości 10 mld USD. Wartość ta równa jest dostawom z całego roku 2025! A nasz backlog jest wart ok. 20 mld USD.
Oczywiście wszyscy wiedzą, że dużo firm chce kupić karty NVIDII. Składane są już nawet zamówienia na karty H300. My sobie z tak dużym popytem radzimy.
Jak wygląda popyt na serwery z GPU? Znalazłem informację, że w tym roku wielkość zamówień na serwery pod zastosowania AI przekroczyła już 12 mld USD.
W skali globalnej jest to coś czego w Dellu nie obserwowaliśmy co najmniej od 8 lat, gdy ja pracuję w tej firmie. Wspomniana kwota to tylko zamówienia z I kwartału tego roku finansowego 2026. W II było to już 17 mld USD. W sumie daje to prawie 30 mld USD.
W I połowie tego roku do klientów dostarczyliśmy sprzęt o wartości 10 mld USD. Wartość ta równa jest dostawom z całego roku 2025! A nasz backlog jest wart ok. 20 mld USD. Tymczasem przed nami jeszcze druga połowa roku. Przyspieszenie jest nieprawdopodobne.
W Polsce widać taki sam boom na serwery z GPU?
Polska nie odbiega od tego trendu. Ośrodki akademickie, m.in PCSS, Cyfronet czy WCSS, budują AI Factories. Mamy też perspektywę powstania Baltic AI GigaFactory. To ogromne inwestycje. Są też inwestycje innych podmiotów, m.in. operatorów telekomunikacyjnych i dostawców usług centrów danych.
Są też firmy komercyjne, które przechodzą z fazy piaskownicy, czyli 1-2 serwerów z GPU na potrzeby testów dla małego zespołu specjalistów od sztucznej inteligencji do fazy produkcyjnej. Zaliczamy do nich banki i firmy z sektora e-commerce. Spodziewamy się więc zwiększonych zamówień także w Polsce. Mamy już pierwsze, podpisane zamówienia. Choć dzieje się to wolniej niż obserwujemy to na świecie.
Cechą polskich klientów jest długie przyglądanie się nowym rozwiązaniom, ale potem następuje bardzo szybka ich adopcja. W Polsce wciąż jesteśmy w fazie edukacji.
W Dell Technologies działa zespół konsultingowy, który doradza klientom w realizacji tego typu projektów? Pytam, bo wspominałeś o Dell Sales Chat.
Jest to jedna z rzeczy, o których powinniśmy dużo głośniej mówić. Dell ma bardzo dużą organizację serwisową. Zajmuje się ona nie tylko utrzymaniem środowisk IT, ale także doradztwem. Doradztwem w zakresie realizowanych przez klientów projektów, w tym dotyczących AI. Bardzo aktywnie zatrudniamy do tego zespołu nowe osoby.
Od początku jesteśmy w stanie wejść z klientem w dialog, przygotować dla niego zwalidowane rozwiązania pod konkretny use case. W efekcie zaś zaproponować dopasowaną platformę.
Jaka jest rola partnerów Dell Technologies w tego typu projektach?
Bardzo niewiele dzieje się w Polsce bez partnerów. Generują oni znakomitą większość naszych obrotów. Jeśli chodzi o pamięci masowe jest to wręcz 100%. Obecnie obserwujemy, że nasi partnerzy zaczynają budować nowe kompetencje. Wielu z nich od kilku lat inwestuje jednak w budowę produktów dedykowanych wykorzystaniu algorytmów AI.
Każdy z nich wybiera własną specjalizację, np. w zakresie Computer Vision, obsłudze dokumentów, budowania chatbotów i voicebotów wspierających obsługę klientów czy AI w cyberbezpieczeństwie. Są też partnerzy, którzy tworzą dedykowane rozwiązania dla poszczególnych sektorów – szkolnictwa, ochrony zdrowia czy energetyki. Własne rozwiązania uruchamiają na naszych urządzeniach wyposażonych w układy GPU.
Co warto podkreślić, dziś w rozwiązaniach IT nie chodzi o to, aby zaproponować, dostępne z półki oprogramowanie, wytrenować model, uruchomić go i na tym etapie zostawić z tym klienta. Te rozwiązania będą żyły, zmieniały się, a to wymaga np. dotrenowania dotychczasowego modelu. Nasi partnerzy to rozumieją. Dlatego podpisują umowy, w których zobowiązują się do tego, aby serwis, wsparcie i rozwój oferować przez lata.
Partnerzy preinstalują własne rozwiązania na serwerach Della?
Tak. Ciągle wspieramy naszą inicjatywę „Future Made in Poland”. Ale to nie oznacza tylko serwerów Dell produkowanych w Łodzi, ale też gotowe rozwiązania czy polskie modele językowe takie, jak Bielik czy PLLuM. Staramy się je implementować i pokazywać, jak można je wytrenować i zastosować w polskich aplikacjach. Możemy pokazywać klientom, że są aplikacje polskich firm oparte na polskim modelu LLM. Aplikacje, które potrafią przetwarzać polskie dokumenty. Wierzymy głęboko w tę ideę.
Jakie jest wasze podejście do wspomnianej suwerennej sztucznej inteligencji czy bardziej ogólnie cyfrowej suwerenności, na którą Europa stawia od początku tego roku, czyli zmianie administracji w Białym Domu?
Pojęcie cyfrowej suwerenności pojawia się w przestrzeni publicznej od kilku lat. Choć w tym kontekście ważne są zmiany otoczenia, na które zwróciłeś uwagę. W Dell absolutnie wierzymy w to, że istnieją pewne kategorie danych i podmioty, na które wpływają regulacje. Muszą być wypełniane i to powoduje wzrost znaczenia suwerenności danych.
Ale dla polskich przedsiębiorców, z którymi rozmawiamy, także ważna jest ochrona własności intelektualnej, również w kontekście szpiegostwa przemysłowego sponsorowanego przez inne kraje. Ważna dla tych organizacji jest możliwość przetwarzania danych lokalnie, relatywnie niewielkimi nakładami finansowymi.
Patrzymy na suwerenność cyfrową od najmniejszych podmiotów i ich partykularnych interesów, aż po interes krajowy i globalny. Dell jest na każdym z tych poziomów ze swoimi rozwiązaniami. Można wyróżnić kilka poziomów suwerenności w kontekście danych i AI.
Pierwszym jest infrastruktura AI, którą państwo buduje dla agent państwowych – Government for Government. Drugi to Government for Industry, z którym mamy do czynienia na przykład w krajach arabskich. Tam państwo bierze na siebie ciężar rozwoju AI na potrzeby lokalnych firm. Trzeci poziom to Government with Industry.
Przykładem tego typu inicjatywy jest Baltic AI GigaFactory. Spodziewam się, że w tej wielkiej inwestycji, znajdzie się część dla rządu, sektora prywatnego oraz ogólnoeuropejskich obliczeń związanych z trenowaniem dużych modeli sztucznej inteligencji.
Może dzięki temu powstaną kolejne, polskie specjalizacje, podobne do tych tworzonych przez ElevenLabs. A może stworzymy w Polsce – w oparciu o doświadczenia ICEYE – najlepszy model sterowania satelitami? To jest kierunek, który możemy rozwijać.
Jaką rolę widzi dla siebie Dell w kształtowaniu ekosystemu innowacji AI w Polsce?
Współpracujemy z dużymi ośrodkami akademickimi zarządzającymi superkomputerami w Polsce. Warto też podkreślić, że Dell – z racji szerokiej obecności na rynku małych, średnich, dużych i największych przedsiębiorstw, reprezentujących wszystkie segmenty – może łączyć różne podmioty. Wierzymy w to, że polskie PKB rośnie dlatego, że dochodzi do łączenia kropek. Dlatego, że jesteśmy w podmiotach, które tworzą wartość dla polskiej gospodarki.
Naszą rolą, jeśli chodzi o cały rynek, jest edukacja – zwłaszcza wśród polskich firm. Firm, w których – w przeciwieństwie do międzynarodowych koncernów – nie ma wewnętrznych, działów IT, które rozumieją rolę narzędzi sztucznej inteligencji. W małych i średnich, polskich firmach zazwyczaj odpowiadają one za utrzymanie infrastruktury IT.
Jeśli w polskich firmach uda się wprowadzić kilka, prostych aplikacji korzystających z AI, to być może poprawi to ich efektywność o 5-7%. Jeśli przemnożymy to przez 10 000 firm, to przełoży się to na realny wzrost PKB w Polsce. W tym roku tematem przewodnim Dell Technologies Forum było „AI po prostu”. Pokazywaliśmy właśnie realne podejście do sztucznej inteligencji i realizacji tego typu projektów wśród polskich firm.








