CDOPolecane tematy
Gartner: w ciągu kilku lat zmigrujemy do rozwiązań in-memory
Jak przekonuje Donald Feinberg, Vice President Distinguished Analyst, Information Management w firmie Gartner, w ciągu kilku lat cała infrastruktura bazodanowa będzie oparta o rozwiązania in-memory. Stają się one coraz tańsze i radykalnie obniżają TCO całego rozwiązania.
„Dodatkowo rozwiązania in-memory powodują znaczne przyspieszenie działania w zastosowaniach analitycznych, czy Big Data. Oferują analizę danych w czasie rzeczywistym, co pozwala na reagowanie na problemy zanim się wydarzą. In-memory to także duża elastyczność w skalowaniu infrastruktury” – mówił Donald Feinberg podczas konferecji SAP Database & Technology Partner Summit.
Donald Feinberg zwraca też uwagę na fakt, że rozwiązania in-memory znacząco obniżają całkowity koszt rozwiązania (TCO). Zużywają one mniej energii – w tym na chłodzenie – i zajmują mniej powierzchni centrum danych. „Zastąpienie tradycyjnych dysków pamięciami typu Flash powoduje również, że platforma bazodanowa staje się bardziej stabilna. Dodatkowo unikamy wysokich kosztów związanych z zatrudnianiem specjalistów od zarządzania bazami danych. W przypadku systemów wysokiej dostępności – High Availability – to 10-15 tys. USD za 1 TB rocznie” – dodaje.
Analityk Gartnera obalił też kilka mitów na temat rozwiązań in-memory. „Nie jest prawdą, że jest to marketingowe hasło tylko jednej firmy – SAP. Na rynku jest ok. 50 firm, które oferują rozwiązania in-memory. Nie jest to również nowe rozwiązanie. Po raz pierwszy pojawiło się na rynku pod koniec lat 90. XX wieku. Nie jest to też rozwiązanie drogie, tylko dla dużych przedsiębiorstw. De facto największą grupę jego użytkowników stanowią dziś firmy z sektora małych i średnich przedsiębiorstw” – wyjaśnia.
Koszt związany z zatrudnianiem specjalistów od zarządzania bazami danych w przypadku systemów wysokiej dostępności – High Availability – to nawet 10-15 tys. USD za 1 TB rocznie.
Gartner zapowiada też powstanie platformy bazodanowej nowego typu Hybrid Transactional/Analytic Processing (HTAP). Z tej samej bazy HTAP korzystać mogą zarówno aplikacje transakcyjne, jak i analityczne.„Dziś mamy do czynienia z bazą danych i hurtownią danych połączonymi ze sobą. Wymiana danych pomiędzy nimi wymaga jednak czasu. Korzystając z platformy HTPA nie ma tych opóźnień. Nie ma też problemów z oczekiwaniem na zakończenie procesu przetwarzania wsadowego” – opowiada Donald Feinberg.
Na koniec prowokacyjnie stwierdził on, że wg niego nie ma czegoś takiego, jak rynek rozwiązań Big Data. Są jedynie narzędzia, takie jak Hadoop. Jednym z największych problemów z Big Data jest zaś brak odpowiednio przeszkolonych osób. Do roku 2015 potrzeba będzie 4,4 mln osób z umiejętnościami analizy dużych zbiorów danych, z czego 1,3 mln w Europie. „Data Scientist” został zaś uznany przez Harvard Business Review za najbardziej „seksowny” zawodów XXI w. Z kolei wg Gartnera, aż 50% korporacji do roku 2015 powoła – jako członka zarządu – CDO (Chief Data Officer).
Przed firmami zamierzającymi uruchamiać projekty Big Data stoi jednak wiele problemów do rozwiązania. Według badań Gartnera, co prawda 90% menedżerów twierdzi, że dane są najcenniejszym zasobem ich firmy, ale jedynie 10% potrafi policzyć ich realną wartość. Dodatkowo aż 85% firm z listy Fortune 500 nie będzie w stanie wykorzystać w najbliższych latach swoich danych do uzyskania przewagi konkurencyjnej!
Według badań Gartnera, co prawda 90% menedżerów twierdzi, że dane są najcenniejszym zasobem ich firmy, ale jedynie 10% potrafi policzyć ich realną wartość.
Ważne jest też, aby zarządzanie informacją powiązać z konkretnymi efektami biznesowymi. Przedsiębiorstwa, którym to się uda będą rozwijać się co najmniej o 20% szybciej niż rynek, na którym działają.