AplikacjeInfrastrukturaPolecane tematy
Dlaczego IBM kupił Red Hata – i co to znaczy dla rynku IT?
Właśnie mija miesiąc, odkąd IBM przejął firmę Red Hat. Transakcja sięgająca 34 miliardy dolarów była szeroko komentowana na całym świecie przez szeroko pojęty rynek IT i nie tylko. Obie firmy zatrudniają globalnie ponad 300 tysięcy pracowników, a sam tylko IBM oferuje swoje usługi w 170 krajach na całym globie. Echa tego przejęcia rozbrzmiewają szczególnie głośno, gdyż komercyjny gigant przejmuje jednego z silniejszych graczy rynku Open Source.
Red Hat oprócz pracowników ma przecież niemałą liczbę członków społeczności, którzy współtworzą całość ekosystemu. Dla tej grupy chyba najważniejsze oświadczenie wydał Jim Whitehurst zapewniając, że zarządzana przez niego firma nie zmieni się, a przede wszystkim – nie odejdzie od przyjętej strategii tak mocno osadzonej w Open Source. W liście kierowanym do pracowników obecny CEO zapewnia także, że dotychczasowe kierownictwo Red Hat pozostanie u steru i zachowa niezależność od IBM oraz neutralność tak bardzo potrzebną na rynku oprogramowania x86. Ponadto marka, siedziba główna i stosowane w firmie praktyki, przynajmniej według zapowiedzi również ominą wszelkie zmiany. Jakie zatem są oczekiwania IBM?
Kierunek – multicloud
Firma IBM zainwestowała największą w swojej ponad 100 letniej historii kwotę po to, by móc zaoferować swoim klientom hybrydową platformę opartą na wielu chmurach obliczeniowych. Trudno przecież przejść obojętnie obok zjawiska rosnącego wykorzystania chmury publicznej, a rynek jej dostawców w dużym przybliżeniu został już podzielony. IBM to dostrzegł już dawno przejmując w 2013 roku Softlayer, ale tym razem zamiary giganta z Armonk były nieco inne. Jak wynika z analiz rynku przeprowadzonych przez Synergy Research Group, tegoroczna akwizycja ma ułatwić przyciągnięcie do oferty IBM klientów korporacyjnych – zwłaszcza tych, którzy planują zwiększać skalę wykorzystania usług oferowanych przez firmy takie, jak Amazon i Microsoft.
Po bliższym przyjrzeniu się, szybko przekonamy się o istnieniu co najmniej kilku logicznych przesłanek, dlaczego taka właśnie fuzja ma sens i może przynieść obu firmom niemałe korzyści. Ograniczając się nawet jedynie do polskiego rynku nie można nie zauważyć, że platforma IBM Power jest standardem w wielu organizacjach, szczególnie w organizacjach finansowych, ale też wielu publicznych czy energetycznych. Oczywiście nie mam tu na myśli jedynie cenionego za wydajność i niezawodność systemu AIX, ale całą gamę aplikacji biznesowych, które oferuje IBM – od Informix i DB2, przez WebSphere, na aplikacjach chmurowych kończąc. Ostatecznie trudno się dziwić, gdyż lista produktów oferowanych przez IBM wyszczególniona na stronie firmy jest prawdopodobnie dłuższa niż ten artykuł.
Jednak od czasu komercjalizacji platform wirtualizacji x86 zmieniła się nieco perspektywa, z jakiej patrzono na niezawodność rozwiązań IBM – szczególnie w odniesieniu do ich ceny. Pamiętajmy, że sama koncepcja wirtualizacji nie jest w ofercie IBM niczym nowym, bo na długo przed pojawieniem się na rynku VMware podobną koncepcję próbowano zrealizować w oprogramowaniu IBM CP-67. Sukces producenta z Palo Alto popchnął kolejnych, ważnych graczy do pójścia w tym samym kierunku. I tak, do dzisiaj Citrix oferuje Citrix Hypervisor (niegdyś XenServer), w jądrze systemów Linux odnajdziemy KVM, a Microsoft – choć nie zdominował rynku kolejnymi odsłonami HyperV – to z powodzeniem używa go w całej rozciągłości w kluczowym rozwiązaniu, jakim jest dziś platforma Azure. Sukces tej ostatniej platformy oraz rosnące zainteresowanie jej wykorzystaniem jest kolejnym dowodem na to, że być może nie wszędzie będzie konieczne zastosowanie osławionej platformy Power.
Wirtualizacja na własność
Można zatem powiedzieć, że przez Red Hat wnosi do portfolio IBM wirtualizację opartą o jądro systemu Linux. Może nie jest to technologia wirtualizacji tak rozbudowana, jak vSphere, ale z pewnością jest bardzo konkurencyjna i dojrzała. Obecność w 170 krajach świata i obecna siła marketingu IBM z pewnością pozwoli jeszcze skuteczniej spopularyzować KVM spod znaku czerwonego kapelusza. Red Hat w tym zakresie zyskał więc wiele bez konieczności diametralnego rozwoju technologii. Przy tej okazji warto spojrzeć na kwestie licencjonowania rozwiązań biznesowych firm trzecich. Niekiedy samo stosowanie platformy Power jako fundamentu niepotrzebnie zwiększało koszty, w niektórych przypadkach nie wnosząc żadnych korzyści technologicznych. Posiadanie w portfolio rozwiązań Red Hat Linux może zatem pomóc bardziej elastycznie zbudować ofertę dla klienta.
Jednak jak można się domyślić, platforma wirtualizacji x86 nie byłaby w dzisiejszych czasach na tyle atrakcyjna, by skłonić IBM do wydania nań ponad 30 miliardów dolarów. Wszak podobnej akwizycji dokonało EMC przejmując VMware na mocy transakcji sfinalizowanej w styczniu 2004 roku. Czy można dzisiaj zyskać na niemal identycznej transakcji? Raczej nie, bo rynek rozwiązań wirtualizacji x86 się nieco nasycił, a jego lider z Palo Alto też musiał się sporo natrudzić, by rozwiązaniami wirtualizacji sieci (NSX) i pamięci masowych (vSAN, vVOL) wrócić do bardzo dobrych rezultatów finansowych. Dzisiaj sama wirtualizacja serwerów, a nawet jej zaawansowane funkcjonalności, nie są już tak innowacyjne jak 5 czy 10 lat temu. Ich miejsce w rankingach atrakcyjności zajmuje chmura publiczna, platformy hiperkonwergnetne i zautomatyzowane środowiska DevOps pracujące na kontenerach. Aplikacje z silosów przeszły do architektury atomowej, w której – porównując do biologii – buduje się tkanki realizujące konkretne funkcje biznesowe. Tak, jak w żywym organizmie tkanka rozrasta się, gdy jest na nią zapotrzebowanie – tak w aplikacjach pisanych z myślą o chmurze, kontenerach czy mikro usługach kolejne instancje o wąskiej specjalizacji skaluję się w zależności od potrzeb biznesowych. I tu właśnie doskonale odnajduje się Red Hat dostarczający system operacyjny, który jest praktycznie wpisany w DNA kontenerów, ale przede wszystkim dojrzałą platformę ich automatyzacji – OpenShift. Nie wolno zapominać też o Ansible Tower, który stał się już bardzo rozpowszechnionym narzędziem w środowiskach DevOps.
Konteneryzacja na celowniku
Wirtualizacja na dobre zadomowiła się w naszych centrach danych, a jej istotnym założeniem była niezmienność wcześniej używanych aplikacji. Warstwą pośrednią między aplikacją, a sprzętem pozostawał system operacyjny, więc zarządzanie aplikacjami przez administratorów również nie wiele się zmieniało. Wykorzystanie kontenerów to z jednej strony kolejny postęp idei wirtualizacji, ale z drugiej – wyeliminowanie systemu operacyjnego implikuje konieczność zmiany architektury oraz narzędzi zarządzających. Pojedynczy kontener nie jest tak autonomiczny, jak maszyna wirtualna – co wiele upraszcza, jednak wymaga też zadbania o specyficzne procesy integracyjne. W tym właśnie tkwi siła OpenShift’a – coraz częściej stosowanego przez średnie i duże organizacje, nie wspominając już o startupach, którym tworzenie oprogramowania w takim modelu przychodzi łatwiej, gdyż jest realizowane od podstaw.
Stosowanie architektury kontenerowej ma jeszcze jedno bardzo istotne znaczenie. To naturalny pomost do chmury publicznej. Jeśli opanuje się proces zarządzania architekturą rozproszoną do tego stopnia by móc gwarantować wysokie SLA, jakie będzie miało znaczenie, gdzie uruchamiany jest dany kod? To nic innego jak komercjalizacja znanej koncepcji Cloud Native Appilactions, czyli oprogramowania z góry tworzonego dla środowisk chmurowych. Dzisiaj należałoby jeszcze dodać „i kontenerowych”.
Red Hat nie straci
Wydaje się więc, że z technologicznego punktu widzenia przejęcie Red Hat przez IBM to słuszna decyzja, a przynajmniej słuszny kierunek. Można się jeszcze zastanowić, czy zyskać na tym może przejmowany Red Hat i jego klienci. Tu również odpowiedź jest raczej optymistyczna – przynajmniej, dopóki zarząd IBM będzie podtrzymywał swoje deklaracje o niezależności o neutralności przejętej spółki. Sam system operacyjny, platforma kontenerowa czy optymalizacja OpenShift bez możliwości zaoferowania rozwiązań biznesowych nie są tak atrakcyjne jak mogą być w połączeniu z ofertą rozwiązań dla biznesu. Można się też spodziewać, że dzięki tej akwizycji grono sympatyków niezawodności IBM nieco bardziej przychylnie spojrzy na rozwiązania x86 i stowarzyszone narzędzia do zarządzania. Wszak IBM to dla wielu gwarant jakości i niezawodności.
Na koniec jeszcze jedno, żartobliwe porównanie. Rozważając znaczenie transakcji przejęcia firmy Red Hat przez koncern IBM nie mogłem przestać myśleć o przejęciu Mojang przez Microsoft. Wprawdzie nie jestem wytrawnym graczem, ani – sądząc, że uwłacza ona mojej karcie graficznej – nigdy specjalnie nie przepadałem za grą Minecraft, to – jakby nie patrzeć – duża doza wolności, wliczając dostępność serwerów czy modyfikacji, tej platformy nie zmieniła się pod skrzydłami Microsoftu. Zamiast ograniczać istniejące możliwości, gigant z Redmond – przynajmniej na razie – dodał, całkiem atrakcyjne zresztą, oparte na platformie Xbox, funkcje gry zespołowej. Być może jest to infantylne porównanie, ale nie słychać dziś na rynku wielu skarg fanów Minecraft, tych młodszych i tych starszych, na działania podejmowane przez Microsoft. Miejmy nadzieję, że z IBM i Red Hat będzie podobnie.
Druga sprawa : IBM ma Sales w 140 krajach , RH tylko w ~ 40 , sam produkt (e.g. OpenShift) jest napewno liderem PaaS ale zobaczymy czy RH poradzi sobie z tak wielkim przypływem nowych klientów
Zasadniczo artykuł nietrafiony z najważniejsza kwestią , a mianowicie traktuje o tym , że RH wnosi wirtualizację , a IBM myśli mocno o public cloud. CEO IBM i RH razem zgodnie mówili , że tu chodzi o wygranie rynku hybrid cloud, który ma olbrzymią wartość , a ma w tym pomóc OpenShift , który stoi oczywiście na sprawdzonym RHEL . Co do wirtualizacji , to jest to RHV , a nie KVM (ktory dotyczy hypervisor’a) , ale to napewno nie był kuszący powód , bo RHV ma zbyt mały udział w rynku