Infrastrukturacentra danych / data center
Wszyscy obwiniają AI, ale to nie ona zużywa najwięcej energii w centrach danych
Choć debata o energochłonności centrów danych koncentruje się dziś niemal wyłącznie na sztucznej inteligencji, dane pokazują coś innego: to tradycyjna infrastruktura IT odpowiada za zdecydowaną większość zużycia energii. Eksperci wskazują, że bez całościowego podejścia do efektywności energetycznej sektor cyfrowy nie ograniczy swojego śladu środowiskowego.

Dynamiczny rozwój AI wywołuje rosnące obawy o stabilność systemów energetycznych. Międzynarodowa Agencja Energetyczna (IEA) prognozuje, że do 2030 roku zużycie energii przez centra danych może się podwoić. Problem w tym, że debata publiczna skupia się niemal wyłącznie na sztucznej inteligencji, pomijając szerszy kontekst.
„Skupiając się wyłącznie na AI, łatwo przeoczyć fakt, iż wcale nie jest ona najbardziej energochłonnym elementem infrastruktury IT. Zdecydowana większość energii zużywanej przez centra danych wynika z innych, powszechnych rozwiązań IT. I nic nie wskazuje na to, aby w najbliższym czasie miało się to zmienić” – mówi Monica Batchelder, Chief Sustainability Officer w HPE.
Potwierdzają to dostępne analizy i prognozy. W 2024 roku AI odpowiadała za ok. 15% zużycia energii w centrach danych według IEA, a według analiz francuskiego instytutu badawczego IFRI – nawet tylko 10%. Reszta, czyli 85–90%, przypada na tradycyjne systemy IT: serwery, pamięć masową, sieci i usługi chmurowe. Nawet w perspektywie 2030 roku udział AI ma wzrosnąć jedynie do ok. 19-30%.
Co więcej, zapotrzebowanie energetyczne standardowych systemów – obsługujących aplikacje biznesowe, streaming czy IoT – rośnie szybciej niż w przypadku AI. W praktyce oznacza to, że to właśnie „cyfrowe woły robocze” infrastruktury nadal będą największym konsumentem energii.
Efektywność energetyczna wymaga podejścia całościowego
Oczywiście nie chodzi o bagatelizowanie wyzwania, jakim jest szybko rosnące zużycie energii przez systemy sztucznej inteligencji. Warto jednak pamiętać, że zapotrzebowanie na energię elektryczną zwiększa się dziś niemal we wszystkich obszarach IT. Usługi chmurowe, streaming, Internet rzeczy czy aplikacje korporacyjne pozostają filarem cyfrowej gospodarki i również wymagają znacznych ilości energii.
Wnioski są jednoznaczne – poprawa efektywności energetycznej sztucznej inteligencji jest niezbędna, ale sama w sobie niewystarczająca. Redukcja zużycia energii w sektorze IT wymaga działań na wielu poziomach: od optymalizacji wykorzystania serwerów i modernizacji sprzętu, przez lepsze zarządzanie obciążeniami, po bardziej efektywne oprogramowanie i systemy chłodzenia. Coraz więcej organizacji przyjmuje podejście dwutorowe – inwestuje w energooszczędne rozwiązania dla AI i jednocześnie optymalizuje istniejącą infrastrukturę.
„Uwzględnienie w debacie o energooszczędności zarówno AI, jak i standardowych systemów IT nie oznacza wyboru jednego kosztem drugiego. Oszczędności można szukać w obu obszarach jednocześnie. W praktyce wiele technologii służy jednocześnie tradycyjnym obciążeniom i zadaniom związanym ze sztuczną inteligencją. Przykładowo, zaawansowane systemy chłodzenia opracowane z myślą o superkomputerach mogą znacząco ograniczyć zużycie energii także w przypadku standardowych serwerów, a inteligentne zarządzanie obciążeniami przynosi korzyści zarówno przy trenowaniu modeli AI, jak i w codziennej pracy z bazami danych” – podkreśla Monica Batchelder. „Efektywność energetyczna powinna być traktowana przez zespoły IT jako jeden z kluczowych wskaźników na równi z dostępnością czy wydajnością. Ostatecznie bowiem zużycie energii bezpośrednio przekłada się na wyniki biznesowe” – podsumowuje.







