Wstępniak
Ten numer w dużej części poświęciliśmy rozwiązaniom High Performance Computing. Tematem z okładki jest zakończona przez PKO Bank Polski budowa nowego, podstawowego centrum przetwarzania danych. Bank do tej pory korzystał z dwóch ośrodków. Zostały one jednak utworzone w latach 90. XX wieku. W październiku br. przeniesiono do nowego ośrodka systemy IT odpowiadające za ok. 20% operacji finansowych w Polsce. Na jakie problemy natknął się PKO BP, z jakich rozwiązań korzysta, jakie oczekiwania miano w stosunku do nowego ośrodka, czy odległości pomiędzy centrami danych – przekładająca się na opóźnienia rzędu 1 milisekundy – to dużo? Na te i wiele innych pytań odpowiada Andrzej Leszczyński, dyrektor Pionu Eksploatacji i Infrastruktury w PKO BP (str. 24).
Obsługując tak dużo transakcji, PKO BP z pewnością korzysta z rozwiązań klasy HPC, podobnie jak inne, równie duże instytucje i ośrodki naukowe. Czy jednak – dzięki postępowi technologicznemu – mamy szansę niedługo posiadać dostęp do profesjonalnej platformy HPC na użytek małych i średnich przedsiębiorstw oraz własny? Niedawno HP i Intel uruchomili w Indiach centrum, które proponuje wysoką moc obliczeniową jako usługę – HPC-as-a-Service. Dell został wybrany do zbudowania podobnego centrum na potrzeby badań i realizacji grantów dla studentów Uniwersytetu Oregon. Natomiast Uniwersytet Birmingham – wspólnie z Lenovo – uruchomił projekt BEAR Cloud. W którym kierunku zmierzają zastosowania HPC i technologie za nimi stojące? Piszemy o tym na str. 32 i 34.
HPC dziś to także zmiana architektury stosowanych rozwiązań (str. 52). W aplikacji monolitycznej przed wprowadzeniem nowej wersji, która udostępni oczekiwaną funkcjonalność lub rozwiąże problem skalowalności, należy poczekać, aż wszystkie komponenty będą gotowe. Jeśli takich zmian w czasie jest dużo i każda z nich wymaga wydania kolejnej wersji, wady klasycznego modelu zaczynają być na tyle poważne, że firmy mogą rozważać migrację do mikrousług.
W ITwiz 10/2016 publikujemy także relację ze – zorganizowanego wspólnie z Intel Security – spotkania poświęconego informatyce śledczej (str. 44). Wiele z zagrożeń pochodzi dziś z wewnętrznego otoczenia firmy, od osób z wysokimi uprawnieniami. Zaledwie 25% cyberataktów motywowanych jest chęcią zarobku. Aż 30% to chęć zemsty na firmie, czy po prostu zamiar zepsucia jej wizerunku. Dużym zagrożeniem są też haktywiści, którzy nie żądają pieniędzy, nie szantażują instytucji, a jedynie udostępniają jej dane ponieważ uważają to za swoją społeczną powinność. Jak dojść do tego, kto dopuszcza się nadużyć, czy przekazuje dane firmowe? W tym celu wykorzystywana jest właśnie informatyka śledcza.
Polecamy też II część cyklu „Odczarowując Big Data”. Tym razem autorzy zastanawiają się jak to się stało, że Hadoop – pomimo wad i problemów wieku dziecięcego – stał się tak istotnym elementem trendu Big Data? Aby odpowiedzieć na to pytanie przyglądają się oni procesowi powstania i rozwoju Hadoopa jako oprogramowania, ale także towarzyszącemu mu rozwoju świadomości biznesu, pozwalającej na wykorzystanie tej technologii do zmierzenia się z wyzwaniami, którym tradycyjne metody nie były w stanie sprostać.
W numerze ITwiz 10/2016 polecamy także artykuły poświęcone: Data Governance (str. 4); nowej, unijnej regulacji związanej z ochroną danych osobowych (str. 10); wyzwaniach związanych z internetem rzeczy (36) oraz nowościom w Windows Server 2016 (38).
Adam Jadczak
redaktor naczelny ITwiz