InfrastrukturaSztuczna inteligencjaRynek
HPE GreenLake for File Storage z nowymi możliwościami wspierającymi proces wdrażania AI w organizacjach
Jak informują specjaliści HPE, wprowadzone ulepszenia to kolejny krok umożliwiający wykonywanie zadań związanych z AI czy jeziorami danych w sposób prostszy, bardziej wydajny i efektywny kosztowo. HPE GreenLake for File Storage oferuje wersje bazujące w 100% na pamięci flash o wysokiej gęstości.
W porównaniu z obecnie dostępną wersją HPE GreenLake for File Storage, nowe warianty oferują czterokrotnie większą pojemność i nawet dwukrotnie większą wydajność systemu w przeliczeniu na jednostkę w szafie serwerowej. Ulepszenia te dwukrotnie zwiększają przepustowość w przypadku zadań AI i zmniejszają zużycie energii nawet o 50%, zapewniają przedstawiciele HPE.
Dzięki nowemu kontrolerowi o dwukrotnie większej mocy obliczeniowej oraz półkom dyskowym wypełnionym dyskami SSD NVMe (JBOF) o wysokości 1 RU i pojemności 1.3560 PB, użytkownicy mogą teraz szybciej wykonywać zadania obliczeniowe i znacznie zredukować swoje koszty, poziom zużycia energii oraz przestrzeń zajmowaną przez sprzęt w centrach danych.
Dzięki nowym półkom przeznaczonym dla pamięci masowej o dużej gęstości, rozwiązanie HPE GreenLake for File Storage osiąga obecnie siedmiokrotnie większą gęstość pamięci masowej w porównaniu do wyników z połowy 2023 roku.
HPE GreenLake for File Storage przyspiesza działanie aplikacji wymagających dużej ilości danych poprzez wydajność AI klasy korporacyjnej. Jak zapewniają przedstawiciele HPE, ten poziom wydajności jest dostępny na wszystkich etapach wprowadzania sztucznej inteligencji: od agregacji danych, przez ich przygotowanie, trenowanie i dostrajanie AI, aż po etap wnioskowania. Nie są to jedynie chwilowe szczyty wydajności w przypadku małych zestawów danych. To konsekwentnie wysoki poziom wydajności przy wszystkich zastosowaniach, również w przypadku najbardziej wymagających, przetwarzających duże ilości danych zastosowaniach AI, takich jak generatywna sztuczna inteligencja czy duże modele językowe (LLM) – podkreślają specjaliści.
Dzięki wsparciu dla zoptymalizowanego wykorzystania procesorów GPU za pośrednictwem InfiniBand, NVIDIA GPUDirect® i RDMA, HPE GreenLake for File Storage pozwala przyspieszyć zadania dotyczące sztucznej inteligencji poprzez podniesienie wydajności trenowania i dostrajania modeli oraz stosowanie szybszych punktów kontrolnych. Elastyczność zapewniana jest przez łączność w standardzie InfiniBand między hostem front-endowym a sieciami (m.in. za pośrednictwem platformy NVIDIA Quantum-2 InfiniBand). Możliwe jest skalowanie pojemności efektywnej nawet do 720 PB (przy redukcji danych 3:1) w przypadku wielkich zbiorów danych do zastosowań AI.