Sztuczna inteligencjaInfrastrukturaRynekPREZENTACJA PARTNERA
Pomagamy uzyskać wartość z AI: od superkomputerów do PC
Komentarz
Odpowiedzialne wykorzystanie AI pozwala na usprawnianie procesów, poprawę produktywności czy bezpieczeństwa. Intel pracuje nad tym, aby AI stała się powszechnie dostępna i bezpieczna, wspierając przy tym szeroką gamę urządzeń i zastosowań.
Wartość AI dla przedsiębiorstw: aplikacje i infrastruktura
Sztuczna inteligencja jest już od lat częścią świata technologii, a jej metody stoją za postępem w takich rozwiązaniach, jak diagnostyka obrazów medycznych, kontrola jakości produkcji, wykrywanie oszustw finansowych czy rekomendacje treści.
Z kolei Generatywna AI jest stosunkowo nową dziedziną, ale pewne jej zastosowania – w sposób naturalny – szybko stają się przedmiotem zainteresowania przedsiębiorstw. Typowym przypadkiem użycia jest organizacja wiedzy w firmie przy wykorzystaniu języka naturalnego, np. przeszukiwanie danych i dokumentów firmowych lub podsumowywanie wiedzy w pewnym zakresie. Dotyczy to bardzo różnych branż. Znajduje zastosowanie wszędzie tam, gdzie informacji jest dużo. AI pomaga się w nich odnaleźć.
Tematu AI nie da się uniknąć, omawiając również infrastrukturę technologiczną firm. AI ma w szczególności coraz większe znaczenie w cyberbezpieczeństwie. Algorytmy AI mogą np. wychwycić nowe cyberataki, z którymi nie mieliśmy wcześniej do czynienia. Inny przykład to użycie AI w kontekście optymalizacji kosztów chmury publicznej. AI pomaga wybrać odpowiednie instancje do aplikacji lub zwiększyć ich wydajność. W obu tych przykładach AI odgrywa kluczową rolę, a Intel oferuje stosowne rozwiązania.
Wprowadziliśmy nową generację procesorów mobilnych Intel Core Ultra. Ich cechą szczególną jest integracja tzw. procesora neuronowego (NPU) z procesorem graficznym (GPU) i układem ogólnego przeznaczenia (CPU). Z czasem, coraz więcej aplikacji AI będzie można wykonać lokalnie na PC.
Infrastruktura przygotowana na rewolucję AI: od superkomputerów do PC
Rosnąca popularność AI powoduje, że jej zastosowania realizowane są przez bardzo szerokie spektrum środowisk obliczeniowych. Są w nim superkomputery „przeliczające” gigantyczne modele sztucznej inteligencji. Jest chmura publiczna. Są firmowe centra danych, aplikacje działające na brzegu sieci (Edge Computing), a także urządzenia osobiste, np. komputery PC. Intel produkuje rozwiązania, które dotyczą wszystkich elementów tego spektrum. Wyposażamy więc te elementy w dedykowaną funkcjonalność do AI.
Dotyczy to w szczególności procesorów ogólnego przeznaczenia, CPU. Już od kilku generacji procesory serwerowe Intel Xeon mają wbudowaną akcelerację AI. Powoduje to, że bazujące na nich serwery są bardzo dobrym narzędziem do zastosowań uczenia maszynowego, trenowania sieci neuronowych, a nawet inferencji stosunkowo dużych modeli generatywnych – rzędu kilku/kilkunastu miliardów parametrów – takich, które będą zazwyczaj pojawiać się w firmowych modelach generatywnych. Innym zastosowaniem są aplikacje w Edge Computing, gdzie – ze względów bezpieczeństwa, wydajności lub kosztów – należy wykonać obliczenia AI lokalnie, na ogół z koniecznością uwzględnienia ograniczenia dostępnego miejsca i energii.
W kolejnym kroku, dedykowana akceleracja AI trafiła do komputerów. W grudniu 2023 roku zaprezentowaliśmy nową generację procesorów mobilnych Intel Core Ultra. Ich cechą szczególną jest integracja tzw. procesora neuronowego (NPU) z procesorem graficznym (GPU) i układem ogólnego przeznaczenia (CPU). Przykładową korzyścią z użycia NPU jest dłuższe działanie notebooka na baterii przy używaniu funkcji AI obecnych w programach wideokonferencyjnych. Z czasem, coraz więcej aplikacji AI, również generatywnych, będzie można wykonać lokalnie na PC.
Inną klasą produktów są dedykowane AI akceleratory Intel Gaudi, używane do szybkiego treningu i inferencji nawet największych istniejących modeli. Kolejną klasą są nasze procesory GPU, przeznaczone dla centrów danych. Zapewniają one funkcjonalność AI w połączeniu np. z przetwarzaniem wideo (model Intel Flex GPU) lub obliczeniami HPC (Intel Max GPU).
Dla wszystkich tych produktów kluczowa jest możliwość łatwego tworzenia aplikacji AI w popularnych środowiskach programistycznych, takich jak PyTorch, TensorFlow, HuggingFace. Zapewniamy ją dzięki bliskiej współpracy ze środowiskiem open source. Działając na poziomie sprzętu i oprogramowania – w szerokim zakresie zastosowań – umożliwiamy przedsiębiorstwom i konsumentom czerpanie korzyści z rewolucji AI.
Krzysztof Janicki, Data Center Sales Director, EMEA Territory w firmie Intel