Długofalowa strategia akwizycji HPE zbiegła się z rozwojem i ekspansją dużych modeli językowych LLM (Large Language Model). Rozwiązania takie, jak ChatGPT oraz inne modele językowe LLM są bardzo obiecujące pod względem poprawy wydajności, usprawnienia procesów i ostatecznie zwiększenia wartości biznesowej. Według Forbesa, aż 97% właścicieli firm wierzy, że ChatGPT przyniesie korzyści ich organizacjom. Niezależnie od tego, czy jesteśmy startupem, czy przedsiębiorstwem o ugruntowanej pozycji, może się okazać, że skorzystanie z LLM nie jest już wyborem, lecz koniecznością w dzisiejszym, szybko rozwijającym się krajobrazie technologicznym. W miarę ewolucji modeli LLM i poszerzania zakresu ich zastosowań, okazuje się, że potrzeba skutecznego wdrażania i wykorzystywania tych możliwości przez organizacje nigdy nie była bardziej krytyczna. Ale jak to zrobić skutecznie? W tym artykule postaram się ustosunkować i odpowiedzieć na kilka - niby prostych - kwestii. Budowa własnej infrastruktury dla AI Od strony użytkownika technologia ta wygląda dość prosto. Po utworzeniu konta wpisujemy właściwy prompt i jazda. Ale w rzeczywistości każdy kto zna tę technologię wie, że dojrzewała ona przez dekady czekając na swój moment. Chciałem napisać „na swoje 5 minut” ale już wiemy, że nie będzie to tylko 5 minut, a raczej przełom technologiczny na miarę dotcomów czy nawet wynalezienia Internetu. Nie dla wszystkich rozwiązanie to jest osiągalne. Dla niektórych przeszkodą będzie próg finansowy, a dla innych kompetencyjny. I tak naprawdę jest to dopiero początek wydatków. Dlatego właśnie HPE przygotowało kilka wariantów. które mają na celu dopasowanie się do wymagań i preferencji klientów. Oferowane systemy są certyfikowane i zoptymalizowane pod kątem pracy zarówno na brzegu sieci, jak i w centrum danych. Dzięki temu HPE zmieniło dyskusję na temat wdrażania sztucznej inteligencji z „jak” na „jak szybko”. Po pierwsze ogłosiliśmy nowe portfolio rozwiązań AI jako uzupełnienie oferty HPE GreenLake, czyli HPE GreenLake for Large Language Models. To rozwiązanie łączy oprogramowanie HPEAI z superkomputerami HPE Cray, aby umożliwić przedsiębiorstwom prywatne szkolenie, dostrajanie i wdrażanie sztucznej inteligencji na dużą skalę przy użyciu wysokowydajnej, ale i energooszczędnej platformy superkomputerowej. W przeciwieństwie do ofert chmur ogólnego przeznaczenia, które obsługują jednocześnie wiele obciążeń, rozwiązanie HPE GreenLake for Large Language Models działa w oparciu o natywną architekturę AI i zostało zaprojektowane tak, aby umożliwiało przeprowadzanie pojedynczego szkolenia i symulacji sztucznej inteligencji na dużą skalę przy pełnej mocy obliczeniowej. HPE GreenLake for Large Language Models docelowo będzie obsługiwać zadania AI i HPC na setkach lub tysiącach CPU lub GPU jednocześnie. Takie rozwiązanie jest znacznie bardziej skuteczne, niezawodne i wydajne w szkoleniu sztucznej inteligencji i tworzeniu dokładniejszych modeli, umożliwiając przedsiębiorstwom przyspieszenie podróży w kierunku AI. HPE GreenLake for LLMs dostarczany jest we współpracy z partnerem Aleph Alpha, niemieckim start-upem zajmującym się sztuczną inteligencją, aby zapewnić sprawdzone i gotowe do użycia rozwiązanie LLM do zastosowań wymagających przetwarzania i analizy tekstu oraz obrazów. Będzie również obejmować wsparcie w modelowaniu danych dotyczących klimatu, opiece zdrowotnej i naukach przyrodniczych, usługach finansowych, produkcji i transporcie. HPE GreenLake for LLMs obejmie dostęp do Luminous, wstępnie wytrenowanego modelu firmy Aleph Alpha, dostępnego w kilku językach. Pozwala on użytkownikom wykorzystywać ich własne dane, szkolić i dostrajać dostosowany model, aby uzyskiwać spostrzeżenia w czasie rzeczywistym, w bezpiecznym, prywatnym środowisku. Kompletne środowisko do budowy modeli LLM Rozwiązanie HPE GreenLake for LLMs będzie dostępne na żądanie i będzie działać na superkomputerach HPE Cray XD, które zarazem oferują bardzo wysoki poziom efektywności energetycznej. Eliminuje to konieczność zakupu własnego superkomputera i zarządzania nim, co jest kosztowne, złożone i wymaga specjalistycznej wiedzy. Oferta wykorzystuje środowisko programistyczne HPE Cray Programming Environment, w pełni zintegrowany pakiet oprogramowania do optymalizacji aplikacji HPC i AI, zawierający kompletny zestaw narzędzi do tworzenia, przenoszenia, debugowania i dostrajania kodu. Akwizycja firm Determined AI oraz Pachyderm pozwoliła HPE zbudować kompleksową ofertę również od strony stosu oprogramowania dla AI. Platforma HPC Hewlett Packard Enterprise zapewnia obecnie obsługę oprogramowania AI/ML, które obejmuje środowisko programistyczne HPE Machine Learning Development Environment (Determined AI) do szybkiego uczenia modeli na dużą skalę oraz oprogramowanie HPE Machine Learning Data Management (Pachyderm) do integracji, śledzenia i audytu danych z powtarzalnymi możliwościami sztucznej inteligencji, aby generować wiarygodne i dokładne modele. „Dotarliśmy do pokoleniowej zmiany na rynku sztucznej inteligencji, która będzie równie rewolucyjna jak internet, urządzenia mobilne i chmura” – powiedział CEO HPE, Antonio Neri. „HPE sprawia, że AI, niegdyś domena dobrze finansowanych laboratoriów rządowych i globalnych gigantów chmurowych, staje się dostępna dla wszystkich, dostarczając szereg aplikacji AI, począwszy od dużych modeli językowych. Teraz organizacje mogą wykorzystać sztuczną inteligencję do napędzania innowacji, analizy rynków i osiągania przełomów dzięki usłudze w chmurze na żądanie HPE GreenLake, która szkoli, dostraja i wdraża modele na dużą skalę i w sposób odpowiedzialny” - dodaje. Sztuczna inteligencja na brzegu sieci Wprowadziliśmy też na rynek kilka nowych konfiguracji do rozwiązań obliczeniowych wspierających sztuczną inteligencję. Mają one na celu skrócenie czasu, który jest potrzebny do uzyskania wartości z zastosowań AI. Systemy te są certyfikowane i zoptymalizowane do wykonywania obliczeń zarówno na brzegu sieci (Edge), jak i w centrum danych. Pierwsze nowe rozwiązanie zostało zbudowane na serwerach HPE ProLiant Gen11 które wykorzystują technologię akceleracji obliczeń od NVIDIA. Serwery te zostały zaprojektowane tak, aby optymalnie obsługiwać zaawansowane akceleratory. Nowe rozwiązania HPE zwiększają wydajność o ponad 5 razy w porównaniu do systemów poprzedniej generacji. HPE ProLiant DL320 Gen11 z kompaktową konstrukcją, zaprojektowaną specjalnie do obliczeń na brzegu sieci (Edge), to system idealny do przetwarzania obrazu i analizy wideo. Może pomieścić do 4 procesorów graficznych NVIDIA L4 Tensor Core w obudowie 1U. Aby generatywna sztuczna inteligencja mogła wspomagać projektowanie produktów, animacji 3D lub generowanie obrazów i wideo, powstał kolejny projekt HPE ProLiant DL380a Gen11 z maksymalnie 4 procesorami graficznymi NVIDIA L40. Zapewnia on wysoką wydajność renderowania i projektowania, potrzebną w wymagających aplikacjach wizualnych. Oprogramowanie NVIDIA AI Enterprise oferuje wsparcie, bezpieczeństwo i stabilność dla ponad 100 wstępnie wyszkolonych modeli, struktur i narzędzi usprawniających rozwój i wdrażanie sztucznej inteligencji. I wreszcie, aby usprawnić w przedsiębiorstwach wdrożenia rozwiązań do przetwarzania języka naturalnego, budowania rozwiązań LLM, tworzenia aplikacji bazujących na analizie mowy czy wykrywania oszustw, HPE zaprojektowało ultraskalowalny system HPE ProLiant DL380a Gen11. Razem z procesorami graficznymi NVIDIA H100 Tensor Core i pełnym pakietem oprogramowania NVIDIA AI Enterprise, w tym NVIDIA Riva otrzymujemy potężną platformę AI. Wsparcie w rozwoju i utrzymaniu algorytmów Do przedstawionej oferty brakuje tylko jednego – usług. Dostarczanie kompleksowych rozwiązań obejmujących zarówno sprzęt HPC, jak i kompletnego stosu oprogramowania do budowy sztucznej inteligencji, staje się kluczowym elementem strategii dostawców technologii. Firmy oferujące wyłącznie sprzęt HPC lub oprogramowanie mogą napotykać na ograniczenia, zwłaszcza w kontekście ewoluujących potrzeb klientów. Uzupełnienie oferty o usługi w zakresie adopcji AI może być decydującym czynnikiem sukcesu w obliczu potencjalnych wyzwań, z jakimi zmaga się współczesne przedsiębiorstwo. Nasi klienci, którzy zaczynają korzystać lub już korzystają z technologii HPC i AI, często napotykają trudności związane z brakiem specjalistycznej kadry. Implementacja i utrzymanie skomplikowanych systemów wymagają profesjonalistów, co może stanowić nie lada wyzwanie, zwłaszcza wobec globalnej konkurencji w dziedzinie HPC i AI. Klienci potrzebują partnera, który nie tylko dostarczy im sprzęt i oprogramowanie, ale również pomoże w poznawaniu tej technologii, szkoleniu zespołu oraz całym procesie wdrażania. Hewlett Packard Enterprise oferuje szereg usług zarówno dotyczących platformy sprzętowej, oprogramowania, jak i samej sztucznej inteligencji. Są to usługi konsultingowe związane z AI, obejmujące doradztwo strategiczne, projektowanie rozwiązań, wdrożenia i optymalizację. Pomagamy klientom w identyfikacji potencjalnych zastosowań AI oraz dostarczamy kompleksowe rozwiązania dostosowane do ich potrzeb. Nawet jeśli w organizacji udało się stworzyć dojrzały zespół ekspertów AI, to i tak warto skorzystać z pomocy partnera takiego, jak HPE. Z racji skali, aktualnie prowadzimy dziesiątki projektów AI na całym świecie w różnych branżach. HPE dostosowuje ofertę usług profesjonalnych do stopnia dojrzałości klienta. Pomagamy budować strategie AI i włączać je do istniejących procesów biznesowych. Technologia to zazwyczaj łatwiejsza część. Uzyskiwanie poparcia osób zaangażowanych w sprawę i wprowadzanie zmiany na poziomie procesów może być trudniejszą do pokonania barierą. Definicja celów i potrzeb w zakresie modeli AI Z mojego punktu widzenia jako doradcy technologicznego i osoby odpowiedzialnej za proces transformacji cyfrowej u klientów, elementem krytycznym jest zdefiniowanie potrzeb i celów. Czyli wszystko sprowadza się do planu adopcji rozwiązania takiego, jak LLM. Jak zatem wdrożyć rozwiązania LLM? Scenariusz, z którego korzystamy w zespole, i który sprawdza się w życiu codziennym składa, się z 4 etapów. Etap 1: zrozumienie technologii LLM ChatGPT zdominował rynek, ale nie jest pierwszym ani ostatnim modelem tego typu. Dla wielu może to być zaskoczeniem, ale sieci neuronowe i technologia NLP (Natural Language Processing) są wykorzystywane do rozumienia języka od wielu lat, a rewolucyjny pomysł Transformera został po raz pierwszy zaprezentowany w 2017 roku. Przed przystąpieniem do wdrażania konieczne jest zrozumienie, czym są LLM i poznanie ich możliwości oraz potencjalnych problemów z nimi związanych. Musimy pamiętać, że znajdujemy się w Polsce i nasz język nie należy do najłatwiejszych. Modele open-source obecnie dostępne w Internecie, które na co dzień testujemy i uruchamiamy w naszym laboratorium, mają jeszcze „bolączki”. Zacznij więc od zbadania ich efektywności, dopasowania i zrozumienia ich roli w transformacji AI dla danego przedsiębiorstwa. Ta wiedza przygotuje do pozostałych etapów procesu wdrożenia. W przypadku decydentów biznesowych, którzy chcą skorzystać z nowej technologii, nie jest konieczne poznanie wszystkich jej tajników. Wystarczy wiedza większa niż to, co można usłyszeć na YouTube czy przeczytać w artykułach. Ułatwi to komunikację z działem technicznym lub vendorem wdrażającym takie rozwiązanie. Dzięki temu decyzje związane z LLM będą bardziej świadome i uzasadnione. Etap 2: przypadek użycia Kolejny etap to przegląd przypadków użycia z rynku, aby zobaczyć, jak inne firmy wykorzystują LLM. Istnieje wiele obszarów biznesowych do analizy, które mogą obejmować rozwiązania oparte na LLM, takie jak generowanie treści, wyszukiwanie danych, generowanie kodu, obsługa klienta, ulepszenia produktów lub efektywności procesów operacyjnych. Badając potencjalne przypadki użycia, możesz podjąć kroki w celu modernizacji operacji i osiągnięcia przewagi konkurencyjnej. Adaptacja tych przełomowych narzędzi to nie tylko inwestycja w nowoczesną technologię, ale również droga do inteligentniejszego, wydajniejszego i zorientowanego na klienta biznesu. Jeśli firma dostarcza jakieś produkty na rynek, z pewnością ma szczegółową dokumentację procesów i samych produktów spisaną w formie cyfrowej. Im większa jest firma, tym więcej dokumentów powstaje i tym trudniej jest je wszystkie spamiętać, nawet jeżeli są dobrze skatalogowane. Wyszukiwanie informacji może dotyczyć również bazy wiedzy, np. kadrowej lub help desk. Mając ogólny przegląd możliwości LLM, można zacząć myśleć o własnej organizacji i wybrać obszary wymagające usprawnienia. Etap 3: testy i wybór modelu Wybór odpowiedniego modelu dla konkretnego przypadku użycia może okazać się bardzo złożonym przedsięwzięciem. Lista LLM znacznie się rozrosła w ciągu ostatnich miesięcy i stale się powiększa. Wybór odpowiedniego modelu językowego nie powinien zależeć jedynie od jakości wyników. Należy rozważyć także inne kryteria: opóźnienie/wydajność modelu, infrastruktura, dane szkoleniowe i licencjonowanie itp. I jeszcze jedna kwestia. Poza określeniem LLM w tego typu projektach pojawia się też hasło Transformer. O co chodzi? Transformery i LLM-y to pojęcia powiązane, ponieważ LLM to specyficzny typ modelu zbudowany na architekturze transformera. Transformery można wykorzystywać do różnych zadań wykraczających poza modelowanie języka, podczas gdy LLM-y są specjalnie przeszkolone w zakresie generowania tekstu i rozumienia języka naturalnego. Mogą istnieć wyjątki, ponieważ dziedzina ta szybko się rozwija, a tempo badań i finansowania są bezprecedensowe. Główne różnice między transformerami a LLM polegają na ich konkretnych celach. Transformery to szersza klasa modeli, które można zastosować do różnych zadań, w tym tłumaczenia języka, rozpoznawania mowy i opisywania obrazów. Tymczasem LLM skupia się na modelowaniu języka i generowaniu tekstu (choć istnieją wyjątki). Transformery służą jako podstawowa architektura, która umożliwia LLM-om zrozumienie i generowanie tekstu poprzez przechwytywanie relacji kontekstowych i zależności. Transformery są modelami bardziej ogólnego przeznaczenia, podczas gdy LLM są specjalnie przeszkolone i zoptymalizowane pod kątem zadań modelowania i generowania języka. Gdzie można znaleźć modele? Są one oferowane przez różne firmy, a dostęp można uzyskać za pośrednictwem kilku kanałów. Dwa główne miejsca to chmura publiczna (Google Vertex AI / Model Garden, AWS Jumpstart / SageMager i Azure OpenAI Service / Model Catalog) i platformy takie jak HuggingFace. W przypadku chęci używania modelu 100% on-premise i trenowania go na własnych dokumentach, lepsza jest opcja druga, czyli HuggingFace. Dokumenty pozostają offline. Zatem wybór modelu nie musi być trudnym zadaniem, a znajomość podstawowego pochodzenia i kluczowych cech modeli może przynieść znacznie korzyści procesowi wykorzystania LLM do konkretnych zadań. Etap 4: wsparcie organizacji i konfrontacja z biznesem Jeśli chcemy skutecznie wdrożyć LLM w firmie, niezbędna będzie identyfikacja i zaangażowanie kluczowych interesariuszy. Jest to krytyczny krok w kierunku zapewnienia skutecznego wdrożenia i długoterminowego sukcesu tej technologii. Interesariusze będą bezpośrednio zainteresowani wynikami projektu, a ich wsparcie jest niezbędne. Warto też przeprowadzić wewnętrzną ewangelizację pojęciową odnośnie LLM i przeprowadzić burzę mózgów na temat potencjalnych zastosowań. Należy wziąć pod uwagę także inne czynniki, takie jak koszt, zasoby, zwrot z inwestycji i wykonalność. Przyszłość technologii LLM W nadchodzących latach LLM będą rozwijać się w kierunku personalizacji komunikacji. Dzięki analizie ogromnych ilości danych, te modele będą w stanie dostarczać bardziej spersonalizowane odpowiedzi, uwzględniając preferencje i kontekst każdego użytkownika. Rozwiązania LLM będą się coraz bardziej integrować z różnymi dziedzinami. Już teraz pojawiają się przypadki wykraczające poza obszar IT czy marketingu: mowa tu o medycynie, edukacji czy badaniach naukowych, wspierając specjalistów i naukowców w przetwarzaniu i analizie ogromnych informacji. Rozwój LLM-ów pociąga za sobą większą autonomię systemów opartych na AI. Autonomiczne chatboty, asystenci wirtualni czy systemy analizy danych zyskają na zdolności samodzielnego uczenia się i dostosowywania do zmieniającego się otoczenia. Z przyspieszonym rozwojem LLM-ów pojawiają się także wyzwania związane z etyką, a co za tym idzie dyskusją o potrzebie regulacji. Unia Europejska jako pierwsza wprowadziła regulacje związane ze sztuczną inteligencją AI Act. Dzięki zdolności do zrozumienia kontekstu językowego, generowania treści o wysokiej jakości i personalizacji komunikacji, LLM-y otwierają drzwi do nowych możliwości w różnych dziedzinach życia. Jako społeczeństwo musimy równocześnie monitorować rozwój tych technologii, starając się zminimalizować ryzyka związane z ich użyciem. Kluczowe jest równoważenie innowacji z odpowiedzialnym stosowaniem, aby duże modele językowe przyniosły jak najwięcej korzyści społeczeństwu. Krzysztof Chibowski, Business Development Manager, Digital Transformation Advisory, Hybrid Solutions, Hewlett Packard Enterprise