Debata ITwizSztuczna inteligencjaCIOPolecane tematy

Trendy technologiczne na rok 2024: AI na prowadzeniu

W debacie ITwiz na temat trendów technologicznych, które będą rozwijać się w 2024 roku wzięli udział: Magdalena Kasiewicz, dyrektorka ds. sprzedaży usług chmurowych w Hewlett Packard Enterprise; Krzysztof Janicki, Data Center Sales Director, EMEA Territory w firmie Intel; Grzegorz Napieralski, przewodniczący Podkomisji stałej ds. sztucznej inteligencji i przejrzystości algorytmów; Jaromir Pelczarski, CIO w Alior Bank; Robert Pławiak, CDIO/CTO w Polpharma. Rozmówcy skupili się na kwestiach związanych z rosnącym znaczeniem AI, zmieniającym się podejściu do tworzenia programowania, optymalizacji kosztów i budowaniu strategii ESG.

Trendy technologiczne na rok 2024: AI na prowadzeniu

PRIORYTETY TECHNOLOGICZNE

Jakie trendy technologiczne są dziś najważniejsze? Które z nich będą w 2024 roku dominować w krajobrazie IT?

Robert Pławiak (R.P.): Dla nas, jako producenta leków, trendem jest wszystko, co zapewni bezpieczeństwo ich wytwarzania oraz zapewni dostępność leków na rynku.

Po pierwsze mam tu na myśli API – i nie jest to skrót, który rozumiemy jako interfejsy czy serwisy – lecz Active Pharmaceutical Ingredient. Są to substancje czynne do wytwarzania gotowych postaci leków. Są niezbędne do ich produkcji. Aby zachować bezpieczeństwo produkcji leków należałoby zdywersyfikować rynek w Unii Europejskiej. W tej chwili ok 80% substancji czynnych – z których wytwarzane są leki – pochodzi bowiem z Azji, głównie z Chin i Indii.

Kolejna rzecz to konwergencja IT z OT, aby systemy informatyczne były bliżej produkcji. Kolejny element to zarządzanie produkcją oraz podażą i popytem. Wszystkie technologie, które w tym pomogą są niezmiernie dla nas ważne. Chodzi o to, aby można było szybciej „przezbrajać” linie produkcyjne i stosować narzędzia, które wpłyną na sprzedaż i dostępność leków w dystrybucji farmaceutycznej.

Istotne jest też dla nas oczywiście wykorzystywanie wszelkiego rodzaju modeli, algorytmów AI, ale nie tylko w rozumieniu GenAI takim, jak np. ChatGPT. Chodzi o tworzenie własnych modeli, które pokażą jak zwiększać efektywność produkcji, jak lepiej ustawić linie pod kątem wykorzystania energii, drgań, temperatury i ciśnienia, po to, aby osiągnąć jak największą wydajność procesów chemicznych i fizycznych. Wyuczone modele potrafiły np. tak zwiększyć wydajność, aby wyprodukować o 8 kg substancji czynnych więcej, tylko dzięki dobrym nastawom temperatury, które na podstawie zebranych danych zaprognozował model AI.

Ważny trend to także ESG. Jesteśmy firmą farmaceutyczną więc nie tylko „zużywamy” energię, ale jesteśmy firmą proaktywnie wspierającą „sustainability” stąd idziemy w tym kierunku, aby zwiększać odpowiedzialność za środowisko.

Jaromir Pelczarski (J.P.): W bankowości musimy skupić się obecnie na trzech wymiarach, które są jednak mało technologiczne. Jest to: efektywność, dobra organizacja i klientocentryczność. Te trzy aspekty określają dziś nasze działania.

Trendy technologiczne na rok 2024: AI na prowadzeniu

Chociażby ze względu na koszty i zrównoważony rozwój potrzebne jest zbudowanie takiej architektury, która umożliwi zarówno przetwarzanie blisko urządzeń generujących dane na brzegu sieci, we własnym data center, jak i wspomaganie się chmurą publiczną. Taki model oferujemy na platformie HPE GreenLake – mówi Magdalena Kasiewicz, dyrektorka ds. sprzedaży usług chmurowych, Hewlett Packard Enterprise.

Cyberbezpieczeństwo, monetyzacja danych, podejście do chmury nie są już innowacyjnymi trendami, ale czymś oczywistym w agendzie każdego CIO czy CTO. Natomiast zaczynają mieć znaczenie najmniejsze elementy sprawiające, że coś jest bardziej efektywne.

Musimy stosować takie technologie, które sprawią, że ludzie będą chcieli do nas przychodzić. Ten aspekt klienta wymusza inne podejście do technologii z prostego powodu. Jako sektor bankowy musimy pamiętać, że jesteśmy instytucją dla wszystkich, zarówno dla srebrnego pokolenia (Silver Generation – przyp. red.), jak i młodych ludzi, którzy nie rozstają się z telefonami. Bank w żadnym wypadku nie może być organizacją, która wyklucza. Technologia musi pracować cały czas na styku różnych obszarów. Ja technologicznie mam u siebie w tej chwili np. spore wyzwanie, bo cała masa fantastycznych specjalistów przechodzi na emeryturę, a oni pracują z technologiami, które nie są naturalne dla nowego pokolenia.

Co do hype’owych trendów jak AI, to na chwilę obecną nie widzę w bankowości żadnego wymiaru rzeczywistej monetyzacji sztucznej inteligencji. To nadal jest dla nas obszar R&D, nawet jeśli chodzi o te najbardziej ikoniczne obszary, jak zarządzenie ryzykiem czy predykcje. W sektorze finansowym najważniejsza jest uważność. Uważność to wyczulenie na to, co jest hype’em, a co buduje wartość. AI nas oczywiście wspiera w klientocentryczności, ale to są dalej projekty, których zadaniem jest testowanie hipotez.

Rynek usług finansowych jest bardzo wrażliwy, bo odnosi się do spraw związanych z naszymi aktywami. Banków nie stać na to, aby zrobić jakiś bardzo odważny krok, który może zaburzyć ich wizerunek. To obietnica, ale my ją traktujemy jako hipotezę i wciąż sprawdzamy.

Krzysztof Janicki (K.J.): Zgadzam się z wami, że ważne jest i ESG, i cyberbezpieczeństwo. A dla nas – jako dostawcy technologii – istotne są również rozwój chmury i AI. Ale jeśli miałbym wymienić jeden najważniejszy dla mnie trend, to byłoby to wykorzystywanie modeli generatywnych w przedsiębiorstwach i przekucie ich zastosowania w realną wartość. Jest już ku temu sporo narzędzi i przykładów, zwłaszcza związanych z organizacją wiedzy w firmie – np. wyszukiwanie dokumentów za pomocą języka naturalnego lub podsumowywanie informacji w jakimś zakresie. To są obszary, w których generatywna AI w naturalny sposób może przynieść wartość – i to w zasadzie niezależnie od profilu firmy. Coraz łatwiej jest też tworzyć własne modele.

Trendy technologiczne na rok 2024: AI na prowadzeniu

W bankowości musimy skupić się obecnie na trzech wymiarach, które są jednak mało technologiczne. Jest to: efektywność, dobra organizacja i klientocentryczność. Te trzy aspekty określają dziś nasze działania – mówi Jaromir Pelczarski, CIO, Alior Bank.

Istnieją już łatwo dostępne modele wstępnie wytrenowane, które można pobrać z repozytoriów open source typu Hugging Face, połączyć z danymi firmowymi i stworzyć własny model. Jako Intel pracujemy z ekosystemem AI po to, aby uruchamianie takich modeli było jak najłatwiejsze, a popularne modele i oprogramowanie AI łatwo współpracowały ze sprzętem. Możliwości sprzętu są też coraz większe i nawet całkiem duże modele można uruchamiać na stosunkowo prostej infrastrukturze. Na przykład model, który ma kilkanaście miliardów parametrów, można uruchomić na serwerze z procesorami Xeon z wbudowaną akceleracją AI – i to nawet bez pomocy kart graficznych.

Łatwiejsze tworzenie własnych modeli pozwoli firmom szybciej realizować wartość z AI. Jest to obiecujący obszar zastosowań i zarówno IT w firmach, jak i programiści znajdą tu pole do popisu.

J.P.: Jeżeli mówimy o wykorzystaniu rozwiązań open source, to – jako inżynier – mam problem z kupieniem „w ciemno” tego, że coś jest fantastyczną biblioteką czy też modelem. Przez kogo i w jaki sposób był ten model uczony, na jakich danych? To jest rzeczywisty problem. Jaki będzie efekt wykorzystania tego algorytmu przez AI? Nie możemy założyć a priori, że wszystko będzie zgodne z naszymi oczekiwaniami. To jest coś, co można stwierdzić tylko a posteriori, w kontekście końcowego efektu.

K.J.: Nie chcę tu prowadzić debaty na temat tego, co jest lepsze: open source czy closed source. Jedno i drugie ma swoje zalety i wady. Każdy może sam zadecydować, jakie rozwiązanie jest w danym przypadku lepsze. Ale jest faktem, że w open source dostępna jest dziś masa różnych, gotowych narzędzi. Wartość open source polega w szczególności właśnie na tym, że jest bardziej transparentne, wiemy, jakiego typu dane zostały użyte do wytrenowania danego modelu i możemy kod prześledzić, co w przypadku closed source nie jest możliwe. To właśnie transparentność jest jednym z powodów zainteresowania open source.

R.P.: Wszyscy chcemy być pierwsi w szybkim skręcaniu w kierunku AI. Ale szybkość nie zawsze jest sprzymierzeńcem. Wtedy może się okazać, że stworzony model nie będzie obejmował innej perspektywy lub nie będzie wytrenowany na odpowiedniej ilości danych.

Może lepiej pójść małymi krokami i szukać synergii. Ten trend wymaga wyjścia ze strefy komfortu i stwierdzenia, że skoro nie jestem w czymś najlepszy, to muszę pójść do tych, którzy się na tym lepiej znają. Może kiedyś też zapukam do Intela czy NVIDII? No bo czemu mam kupować 1000 procesorów, aby uczyć mój model?

J.P.: Od jakiegoś czasu rozmawiamy o partnerstwie między sferą naukową, uczelniami a biznesem. Chcemy, aby było więcej centrów innowacji i inspiracji. Może to jest moment, aby dać tej współpracy szansę. Tu nie chodzi tylko o AI, która znowu zdominowała rozmowę.

Trendy technologiczne na rok 2024: AI na prowadzeniu

Jako Intel pracujemy z ekosystemem AI po to, aby uruchamianie takich modeli było jak najłatwiejsze, a popularne modele i oprogramowanie AI łatwo współpracowały ze sprzętem. Możliwości sprzętu też są coraz większe i nawet duże modele można uruchamiać na stosunkowo prostej infrastrukturze – mówi Krzysztof Janicki, Data Center Sales Director, EMEA Territory, Intel.

Czytałem ostatnio serię predykcji, które robi raz do roku Scott Galloway. On mnie oświecił, jak ważny jest dziś inny, trzyliterowy skrót. Ale nie chodzi o GPT-4, tylko GLP-1, czyli glukopodobne peptydy-1 (odgrywające kluczową rolę w regulacji metabolizmu węglowodanów – przyp. red.). To jest biotechnologia, w której wykorzystywany enzym może zaoszczędzić – dzięki wsparciu walki z otyłością – 13 bln USD w samych tylko Stanach Zjednoczonych. Nad wynalezieniem leku na otyłość pracują dziś najbardziej zaawansowane umysły, zapewne też naukowcy firm Intel i HPE.

Powiązanie tych różnych obszarów może spowodować, że stworzona zostanie przełomowa innowacja. AI jest tutaj narzędziem uzupełniającym. To nie jest tak, że ona nas zastąpi, bo wierzę w symbiozę białka i krzemu. Natomiast człowiek, który będzie wzbogacony o pewną wiedzę, razem z AI po prostu będzie mógł działać szybciej i lepiej. Jeśli jednak nie będzie do tego dobrze przygotowany nie wykorzysta tej szansy właściwie.

Magdalena Kasiewicz (M.K.): Myślenie o biznesie się nie zmieniło. Musimy optymalizować operacje i doświadczenie klienta. To są dwa, najważniejsze trendy. I oczywiście – w zależności od rodzaju biznesu – te operacje mogą mniej lub bardziej wpływać na końcową efektywność.

Przykładowo w bankach doświadczenie klienta jest o tyle ważne, że jest dużym wyróżnikiem pomiędzy poszczególnymi organizacjami. W obydwu przypadkach bardzo ważny jest ekosystem, czyli współpraca z wieloma, różnymi firmami, budowanie wartości dodanej, wynikającej z ekosystemu.

Widzimy też jak Software Engineering drastycznie zmienił się w wyniku upowszechnienia AI. Według raportów, m.in. McKinsey, jest to obszar, w którym można uzyskać największe korzyści z zastosowania sztucznej inteligencji. Zamiast zatrudniać wielu programistów, zwłaszcza tzw. juniorów, można skorzystać z gotowych narzędzi.

PRAWNE WYZWANIA ZWIĄZANE Z WDROŻENIEM AI

Czego możemy oczekiwać po rozwoju AI? Co mogą przynieść w tej kwestii najbliższe lata?

K.J.: Sztuczna inteligencja jest w zasadzie przedłużeniem tradycyjnej analityki nowocześniejszymi metodami. Zresztą AI nie jest aż tak bardzo nowe. Tak naprawdę możemy AI datować od czasów Alana Turinga, czyli połowy XX wieku. Natomiast hype na AI mamy od listopada 2022 roku, czyli od momentu udostępnienia ChatGPT. Czasami narzekamy na ten hype, ale nic nie stoi na przeszkodzie, aby go wykorzystać w dobrych celach, jak poprawienie produktywności firm, poprawa obsługi klientów etc. Historia rozwoju technologii uczy nas, że hype przeminie, a wartość zostanie.

Trendy technologiczne na rok 2024: AI na prowadzeniu

Przed polskim parlamentem i parlamentami innych państw na świecie stoi dziś ważne wyzwanie – ujęcie sztucznej inteligencji w ramy prawne. Szukamy odpowiedzi na pytanie, które dziś wszystkich nurtuje – jak sprawić i jakiego modelu użyć, aby AI nie zwróciła się przeciwko człowiekowi lecz pomagała nam – mówi Grzegorz Napieralski, przewodniczący Podkomisji stałej ds. sztucznej inteligencji i przejrzystości algorytmów.

J.P.: Bardzo podobała mi się definicja wyższości sztucznej inteligencji nad ludzką Neil’a deGrasse Tysona, słynnego astrofizyka. Powiedział on, że zacznie mieć do sztucznej inteligencji szacunek wtedy, kiedy odkryje ona coś nowego, np. nowe prawa fizyki. Wówczas jej działania nie będą tylko wtórne, pokazujące umiejętność konsolidacji informacji. Wówczas dopiero AI go zaskoczy.

M.K.: Warto pamiętać, że w przypadku AI bezkrytyczne przetwarzanie wszystkiego w chmurze nie jest dobrym rozwiązaniem. Konieczny jest model hybrydowy. Chociażby ze względu na koszty i zrównoważony rozwój potrzebne jest zbudowanie takiej architektury, która umożliwi zarówno przetwarzanie blisko urządzeń generujących dane na brzegu sieci, we własnym data center, jak i wspomaganie się chmurą publiczną. Nie wyobrażam sobie, aby dane “latały” bezpośrednio pomiędzy urządzeniami a chmurą.

Powinniśmy przesunąć przetwarzanie danych do miejsca ich przechowywania. I taki model oferujemy na platformie HPE GreenLake. Hewlett Packard Enterprise inwestuje bardzo dużo, aby zaproponować klientom architekturę, która będzie przetwarzała dane w sposób efektywny, ale jednocześnie będzie optymalna kosztowo i minimalizowała ślad węglowy.

Sztuczna inteligencja nie jest już dla nas trendem, tylko częścią wszystkiego, co robimy. Bardzo ważne jest, aby mieć kontrolę nad tym, w jaki sposób przetwarzamy dane. Wszystkie te elementy są częścią wspomnianej już platformy HPE GreenLake.

G.N.: Przed polskim parlamentem i parlamentami innych państw na świecie stoi dziś ważne wyzwanie – ujęcie sztucznej inteligencji w ramy prawne. Mamy przepisy unijne – AI Act – które za chwilę będziemy implementować i rozmawiać o nich w polskim parlamencie. Szukamy odpowiedzi na pytanie, które dziś wszystkich nurtuje – jak sprawić i jakiego modelu użyć, aby sztuczna inteligencja nie zwróciła się przeciwko człowiekowi, a przeciwnie, pomagała nam.

Dlatego też powołaliśmy w Sejmie podkomisję do spraw sztucznej inteligencji i przejrzystości algorytmów cyfrowych. Chcemy zacząć poważną debatę, na forum parlamentu. Będziemy do niej zapraszać niezależnych ekspertów, instytucje i firmy działające na tym rynku. Serdecznie zapraszamy każdego, kto będzie chciał do takiej debaty coś wnieść.

Trendy technologiczne na rok 2024: AI na prowadzeniu

Dla nas, jako producenta leków, trendem jest wszystko, co zapewni bezpieczeństwo ich wytwarzania oraz zapewni dostępność leków na rynku. Jest to m.in. konwergencja IT z OT, aby systemy informatyczne były bliżej produkcji oraz zarządzanie produkcją oraz podażą i popytem – mówi Robert Pławiak, CDIO/CTO, Polpharma.

M.K.: Potrzebne jest zatem to, co nazywamy po angielsku „alignment”, czyli swego rodzaju uzgodnienie, układ pomiędzy sztuczną inteligencją, a nami jako ludzkością. A w przypadku przedsiębiorstw, to jest „alignment” pomiędzy modelem, a tym co chcemy, aby dla nas zrobił. To jest najważniejsza rzecz, jaka nas czeka.

AI W EDUKACJI I SŁUŻBIE ZDROWIA

Jaka jest rola edukacji w procesie implementacji sztucznej inteligencji?

K.J.: Sztuczna inteligencja będzie miała duży wpływ na rynek pracy, a edukacja powinna młodzież do tego przygotować. Dlatego współpracujemy ściśle z instytucjami edukacyjnymi w Polsce. Na początku 2024 r. Ministerstwo Edukacji ze środków Europejskiego Funduszu Społecznego rozpoczęło ogólnokrajowe wdrażanie szkoleń ze sztucznej inteligencji dla 11 tys. nauczycieli w szkołach podstawowych i średnich na podstawie programu firmy Intel AI for Youth, który ma na celu wyposażenie uczniów w techniczne i społeczne umiejętności z zakresu AI . Polska była pierwszym krajem w Europie, który pilotował program AI for Youth.

W 2019 r. Intel podpisał porozumienie z Ministerstwem Rozwoju i Technologii w celu promowania sztucznej inteligencji w edukacji. W 2021 r. MRiT uruchomiło pierwszy projekt AI dla młodzieży, który w ciągu roku przeszkolił 120 nauczycieli i ponad 2000 uczniów. Jesteśmy dumni z tego, że mamy swój udział w popularyzacji AI w edukacji i widzimy, że nasze działania przynoszą efekty.

Dzięki udziałowi w programach szkoleniowych polscy uczniowie i nauczyciele wygrywają globalne nagrody w konkursach na najlepsze społeczne projekty AI oraz najlepszych edukatorów AI. W dotychczasowych 3 edycjach Festiwalu Intel AI Global Impact Festival globalne nagrody zdobyło 2 uczniów i 2 nauczycieli z Polski.

G.N.: Cieszę się bardzo, że są programy edukacyjne wprowadzające w cyfrowy świat. Kiedyś byłem zaangażowany w program “Mistrzowie kodowania”, który organizował Samsung i który następnie miało potem przejąć rząd. Nikt tego jednak nie „pociągnął”. Co ciekawe, nauczyciele przedmiotów humanistycznych odnajdowali się lepiej w nauce programowania, niż fizycy czy matematycy. Innym wnioskiem było to, że wystarczy dobrze przygotować nauczyciela, a może on całkowicie inaczej uczyć nowych kompetencji. Jasne, że trzeba czytać lektury, uczyć się poprawnej polszczyzny, ja tego nie neguję. Uważam, że powinniśmy też uczyć się umiejętności cyfrowych, aby później poruszać się swobodnie w otaczającym nas świecie.

J.P.: Zgadzam się z tym, że nauka programowania powinna znaleźć się w programach nauczania obok angielskiego, historii i polskiego. Polonista zaś może rzeczywiście fantastycznie programować i być lepszy od matematyka, np. w analizie języków. Jeżeli jednak będziemy mówić o tworzeniu superzłożonych algorytmów wyliczeniowych, to będzie on miał już wiele „do nadrobienia”.

Widzimy jak Software Engineering drastycznie zmienił się w wyniku upowszechnienia AI. Według raportów, m.in. McKinsey, jest to obszar, w którym można uzyskać największe korzyści z zastosowania sztucznej inteligencji – Magdalena Kasiewicz.

Bardzo ważne jest dziś, aby uczyć programowania, porozumiewania się z maszyną. To jest kolejny język, który – w pewnym momencie – będzie w mainstreamie. Nawet jak stworzymy komputery kwantowe, to ta warstwa interfejsu z człowiekiem i tak wciąż będzie musiała istnieć.

Wspominaliśmy już o regulacjach dotyczących sztucznej inteligencji. Jak bardzo są ważne np. w kontekście wykorzystania algorytmów AI w służbie zdrowia?

K.J.: Regulacje – szczególnie dla danych bardzo wrażliwych – są zdecydowanie niezbędne. Istnieją znane metody umożliwiające przetwarzanie takich danych zgodnie z zachowaniem prywatności. Np. znanym problemem jest trening modeli AI w oparciu o dane pochodzące od różnych instytucji.

Oczywiście model AI będzie lepszy, jeśli wytrenuje się go na danych pochodzących np. od wielu instytucji ochrony zdrowia – ale danych wrażliwych nie można przesyłać między instytucjami, bo nie było na to zgody pacjentów. Trenuje się więc ten sam model oddzielnie w oparciu o dane poszczególnych instytucji a następnie bezpiecznie przesyła model – a nie dane – do zbudowania dokładniejszego zbiorowego modelu, który uwzględnia wszystkie te instytucje.

J.P.: Uważam, że regulacje są konieczne. Konieczna jest też edukacja w celu rozróżniania, co jest informacją, a co szumem czy fake newsem. AI jest czymś, co może działać jak broń masowego rażenia w mediach społecznościowych i uruchomić lawinę newsów na dowolny temat. Z drugiej zaś strony jest w stanie zidentyfikować fałszywe informacje.

M.K.: Myślę, że w budowaniu zaufania społecznego do AI ważna jest rola państwa. Jest to bardzo trudne, dlatego że postęp w tej dziedzinie jest bardzo szybki, a wiemy o tym, że regulacje są wprowadzane znacznie wolniej, podobnie jak postęp w dialogu społecznym, który powinien temu towarzyszyć. Mądre regulacje są jednak konieczne do tego, abyśmy mogli pójść do przodu.

G.N.: Jeśli chodzi o unijne regulacje dotyczące AI, to zaczęliśmy je wprowadzać w Polsce chwilę po tym, jak zostały zaaprobowane na poziomie całej Unii Europejskiej. Choć w poprzedniej kadencji przygotowaliśmy pierwszy, własny projekt ustawy mający za zadanie uregulowanie pewnej sfery działania algorytmów AI, ale został on zablokowany przez ówczesną większość sejmową.

Zaczęło się od związków zawodowych, które żaliły się na brak wiedzy związanej ze sposobem naliczania wypłat m.in. w firmach działającymi w sektorze e-commerce i zarządzającymi dużymi magazynami oraz tych zajmujących się dostawami, np. jedzenia, do naszych domów. Każdego miesiąca ich pracownicy otrzymali inną wysokość wynagrodzenia. Tymczasem tam, za ich wyliczanie, odpowiedzialne są właśnie algorytmy.

W sektorze finansowym najważniejsza jest uważność. Uważność to wyczulenie na to, co jest hype’em, a co buduje wartość. AI nas oczywiście wspiera w klientocentryczności, ale to są dalej projekty, których zadaniem jest testowanie hipotez – Jaromir Pelczarski.

Napisaliśmy wówczas prostą ustawę na podstawie ustawy hiszpańskiej, dzięki której związki zawodowe miały uzyskać możliwość wglądu w to, z jakich algorytmów do liczenia płac korzystają pracodawcy. Chodziło o to, aby pracownik wiedział, że jeżeli przenosi cięższy karton, to dostanie 3 zł więcej, jeśli jedzie rowerem w deszczu to stawka godzinowa jest wyższa, niż w słoneczny dzień.

Ogólnie chcemy przyglądać się temu, w jaki sposób aspekty wykorzystania AI w życiu codziennym rozwiązywane są na świecie. Po co wyważać otwarte drzwi, jeżeli w jakimś kraju na świecie udało się to już zrobić i to działa. Wystarczy takie regulacje dopasować do polskich warunków.

J.P.: Chciałem dodać jedną rzecz, w kontekście AI Act. Mamy w nim zawarty optymistyczny zapis, że każdy obywatel Unii Europejskiej będzie miał prawo do tego, aby decyzja AI została przejrzana przez człowieka i to on ostatecznie zadecydował. W tej chwili 90%, a może nawet 99% ludzi nie ma pojęcia jak decyzje wsparte algorytmami sztucznej inteligencji są podejmowane. Ważne, aby każdy mógł to zweryfikować. Dzięki temu będziemy unikać tzw. bias’u, czyli stronniczości AI, która może się objawić jeśli model został wytrenowany na niekompletnych danych.

G.N.: Dlatego tak ważne dla mnie jest szukanie wsparcia merytorycznego. Napiszemy dobrą ustawę, tylko wówczas jeśli uda się ją – co do filozofii – skonstruować tak, aby naprawdę odpowiadała potrzebom rynku. Tu zaś potrzeba szerokiej wiedzy i szerokiego porozumienia.

Na jakie jeszcze aspekty może wpłynąć AI?

K.J.: Czy tego chcemy, czy nie, cyberbezpieczeństwo bez AI się nie obędzie. Algorytmy sztucznej inteligencji pomogą odfiltrować dane wskazujące na potencjalne zagrożenia, a nawet wychwycić tzw. ataki dnia zerowego, oparte na lukach, o których nikt wcześniej nie słyszał. AI potencjalnie jest w stanie tego typu incydenty zidentyfikować, nawet jeśli nigdy wcześniej się z nimi bezpośrednio nie zetknęła. Tyle, że niestety można się spodziewać, że przestępcy też nie będą próżnować i to wszystko skończy się wyścigiem zbrojeń między jasną a ciemną stroną mocy, ale na poziomie AI.

CHMURA, CHMURA HYBRYDOWA, EDGE COMPUTING

Czy firmy będą uciekać z chmury?

K.J.: Przestrzegałbym przed niedocenianiem chmury publicznej. Chmura publiczna będzie się stale rozwijać – choć może nie tak szybko, jak to było kilka lat temu, zwłaszcza w czasie pandemii. Według prognoz IDC, wzrost chmury w latach 2024 i 2025 wyniesie 20%. To jest cały czas bardzo przyzwoita prognoza.

J.P.: Dla mnie chmura jest jak samochody elektryczne. One sprawdzają się w pewnych warunkach, a w innych są kompletnie niefunkcjonalne. Dodatkowo dziś koszty chmury u hiperskalerów zaczynają rosnąć znacznie szybciej niż inne koszty. Dlatego czasem wolę kupić technologię on-premise i zarządzać nią w efektywny sposób w moim, zaledwie „zielonkawym” data center.

W 2019 r. Intel podpisał porozumienie z Ministerstwem Rozwoju i Technologii w celu promowania sztucznej inteligencji w edukacji. W 2021 r. MRiT uruchomiło pierwszy projekt AI dla młodzieży, który w ciągu roku przeszkolił 120 nauczycieli i ponad 2000 uczniów – Krzysztof Janicki.

K.J.: Na pewno wielu klientów sparzyło się na chmurze publicznej i związanych z nią kosztach. Z drugiej strony oferta hyperscalerów jest atrakcyjna i oferuje szeroką gamę instancji, usług i narzędzi. Pytanie więc brzmi, jak optymalnie zarządzać aplikacjami w chmurze publicznej, aby uniknąć wysokich kosztów? Tu AI znów musi pojawić się w dyskusji, bowiem przydaje się klientom w optymalizacji ich inwestycji.

Jeden przykład to oprogramowanie, które rekomenduje klientom optymalne zasoby chmury dla ich aplikacji – takie oprogramowanie, oparte na uczeniu maszynowym, Intel rozwija i wprowadza na rynek z firmą Densify. Drugi przykład to oprogramowanie, które potrafi zwiększyć wydajność aplikacji w chmurze bez ich rekompilowania. Intel oferuje je pod marką Granulate, a wykorzystuje ono modyfikowanie procesów Linuxa w oparciu o AI.

Dostarczamy więc narzędzia AI do optymalizacji kosztów chmury – to jest zresztą pewnie mniej znana część działalności Intela.

R.P.: Nie jest tajemnicą, że używamy dwóch środowisk chmurowych. Jednym z nich jest Microsoft Azure z racji natywnych rozwiązań, które wykorzystujemy. Wśród systemów, które są dla nas bardzo ważne to m.in. systemy specjalizowane, w tym Manufacturing Execution System, czy Warehouse Management System. Dla branży farmaceutycznej ważna jest dywersyfikacja i na pewno równowaga pomiędzy chmurą a własnym centrum danych pozostanie. Choć w mojej ocenie nie będzie to na pewno 50 /50. Zadecyduje o tym rachunek ekonomiczny oraz Risk Based Approach.

Jak wygląda programowanie nowej ery. Co zmienia low-code, no-code, AI?

M.K.: Tak naprawdę wracamy nie do programowania w danym języku, ale do podstaw, takich jak algorytmy i struktury danych. I to jest odpowiedź na to, dlaczego AI zdominowało całą dyskusję. Jest w tej chwili ważnym zasobem, zasobem kolektywnej inteligencji ludzkiej, do której mamy dostęp. To nie jest ani trend, ani określony kierunek, w którym idziemy, tylko zasób, który wykorzystujemy wszędzie, tak jakbyśmy mieli obok siebie pomocnika i z jego wsparcia korzystali.

Nie możemy więc o nim nie rozmawiać, bo znacznie poszerzył nasze możliwości. Aby ten zasób wykorzystać efektywnie, musimy się umieć z nim komunikować. I to jest ta wiedza, która jest potrzebna nam wszystkim. Musimy wiedzieć w jaki sposób nauczyć społeczeństwo – ale też firmy, organizacje, państwo – efektywnego komunikowania się z AI w taki sposób, aby ta informacja działała na naszą korzyść. Potrafić zadać właściwe pytanie, aby wzajemnie zrozumieć się z maszyną, to dziś kluczowa wiedza.

W poprzedniej kadencji napisaliśmy prostą ustawę na podstawie ustawy hiszpańskiej, dzięki której związki zawodowe miały uzyskać możliwość wglądu w to, z jakich algorytmów do liczenia płac korzystają pracodawcy. Teraz chcemy do niej powrócić – Grzegorz Napieralski.

K.J.: Gartner przewidywał, że w trybie low-code i no-code do 2026 roku będzie napisane aż 75% nowego kodu. Mogłoby to mieć ciekawe konsekwencje. Można się spodziewać zjawiska Shadow Coding, tzn. działy biznesowe same łatwo pisałyby aplikacje. Trzeba będzie jakoś nad tym zapanować, w szczególności pod względem praktyk bezpieczeństwa.

Intel inwestuje w firmy zajmujące się oprogramowaniem, m.in. w izraelski startup Zenity.io. Jego założyciele stwierdzili, że trzeba stworzyć platformę, która będzie zarządzała aplikacjami tworzonymi w firmie za pomocą platform low-code / no-code, zwłaszcza pod kątem bezpieczeństwa. To jest zasadnym pomysłem, bo myślę, że należy się na takie powszechne programowanie w firmach przygotować.

J.P.: Widziałem ciekawe zestawienie. Pokazywało ono mianowicie jaka ilość energii potrzebna jest do wytworzenie tego samego kodu napisanego w C, Pythonie i na platformie low-code. I to jest funkcja eksponencjalna. Jest to coś, czego nie bierzemy w tej chwili pod uwagę. Ilość mocy potrzebna do przetworzenia low-code jest ogromna.

M.K.: Wykorzystanie sztucznej inteligencji, a nie platform low-code / no-code, do generowania kodu być może sprawi, że wkrótce przestaną one mieć sens.

ESG STAJE SIĘ CZĘŚCIĄ CODZIENNYCH DZIAŁAŃ

Na ile ESG jest ważne w Waszych organizacjach?

J.P.: Według mnie, w bankowości ESG ma trzy wymiary: zgodność, komunikację i praktykę. Zgodność zapewniają regulacje i ratingi, w których musimy brać udział. Elementem tego jest raportowanie, które jest nieuniknione.

Komunikacja to temat, który zaczyna być w bankowości traktowany poważnie po skandalach związanych z tzw. greenwashing-iem. Nawet bardzo duże banki mówiły o ESG, ale okazało się, że tylko mówiły. Teraz komunikacja zaczęła być odpowiedzialna. Banki stały się bardziej transparentne. Informują co robią, a czego nie zrobią.

Praktyka związana z ESG w Alior Banku jest taka, że obejmuje te wszystkie, trzy litery, a nie tylko jedną z nich, np. E. Technologia w kontekście zrównoważonego rozwoju jest bardzo ważna, dlatego też w naszym „prawie zielonym” data center biorę pod uwagę to, ile zużywam energii.

Istotne jest dla nas wykorzystywanie wszelkiego rodzaju modeli, algorytmów AI, ale nie tylko w rozumieniu GenAI. Chodzi o tworzenie własnych modeli, które pokażą jak zwiększać wydajność procesów chemicznych i fizycznych, jak lepiej ustawić linie pod kątem wykorzystania energii, drgań, temperatury i ciśnienia – Robert Pławiak.

K.J.: Unia Europejska w 2023 roku zaproponowała konkretny sposób raportowania ESG i to, jakie działania powinny się tam znaleźć. Intel regularnie publikuje raport na temat ESG na poziomie globalnym. W Polsce wszystkie trzy aspekty ESG są dla nas bardzo ważne i dlatego zdecydowaliśmy się publikować dodatkowo raport ESG na poziomie lokalnym – jako druga organizacja krajowa Intela na świecie. W tej chwili pracujemy nad dostosowaniem tego raportu do nowego formatu wymaganego przez Unię.

M.K. Każda organizacja powinna przemyśleć jak inwestować, aby zadbać zarówno o koszty, jak i wymogi ESG oraz swój rozwój. To jest bardziej potrzebne niż kiedykolwiek wcześniej. Dla nas ESG oznacza także pomoc klientom w ograniczaniu ich wpływu na środowisko. To jest też nasza odpowiedzialność, jako dostawcy.

Tagi

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *