Trendy 2021: Hot or Not

Trendy 21: HOT or NOT w obszarze AI. Typuje Łukasz Borowiecki

“7 wspaniałych” – trendy “HOT” w obszarze AI typuje Łukasz Borowiecki, CEO i współzałożyciel 10 Senses, ekspert fundacji Digital Poland. Ma też swoje typy “NOT HOT”, a w zasadzie “anty-trendy”, wynikające z praktyki pomijania lub lekceważenia podstawowych ograniczeń AI.

Trendy 21: HOT or NOT w obszarze AI. Typuje Łukasz Borowiecki

O odpowiedź na pytanie o trendy “hot or not” – w ramach nowej rubryki na łamach „ITwiz” – prosimy CXO, ekspertów i naukowców. Pytamy o ich emocje w stosunku do technologii, trendów i zjawisk technologicznych. Ich odpowiedzi to migawka, zapis chwili, zdjęcie w czasie. Krótko i na temat.
Zapraszamy do lektury i komentowania – także podczas spotkań CXO HUB!

Oto, jak typuje Łukasz Borowiecki.

  • Które technologie, podejścia lub zjawiska wynikające ze stosowania technologii właśnie zyskują na znaczeniu?
  • Co okazuje się odpowiedzią na potrzeby firm i użytkowników nowych technologii?
  • Które rozwiązania okazują się niewypałem i schodzą ze sceny?
  • Co jest „hot”, a co „not hot” we współczesnych technologiach?

Łukasz Borowiecki wskazuje 7 istotnych trendów AI. “Niekoniecznie są to najgłośniejsze trendy. Jednak w moim odczuciu są one ważne i warto im poświęcić uwagę” – mówi.

HOT

Wydajność procesowa

Narzędzia z obszaru RPA pozwalają na automatyzację rutynowych czynności zaś process mining pozwala na identyfikowanie wąskich gardeł i niepotrzebnych czynności. Wraz z dalszym rozwojem technologii kolejne czynności będą mogły być automatyzowane i zakres opomiarowania procesów będzie rósł. Jest to o tyle istotne, że rozwiązania AI w obszarze procesów to jeden z niewielu obszarów, gdzie UE jest liderem – to stąd pochodzą firmy takie jak UiPath czy Celonis.

Integracja informacji

AI pozwoli na coraz lepszą integrację danych. Przykładowo faktury mogą pochodzić z różnych źródeł i systemów, być opisane w różny sposób, zawierać błędy – mimo to AI w coraz większym stopniu sobie z tym radzi i potrafi przypisać je do właściwych transakcji czy też kategorii. Ta zmiana postępuje również w innych obszarach, nie tylko księgowości, i pozwala na zastępowanie ludzi w integrowaniu informacji z różnych źródeł oraz dbaniu o jakość tych danych.

Rewolucja w metodzie naukowej

W wielu dziedzinach nauki ogromna część wysiłku naukowców to systematyczne zbieranie i obróbka informacji. I tutaj z pomocą przychodzą algorytmy. Pozwalają one na przeanalizowanie ogromnych ilości danych, przekraczających możliwości człowieka. Już dzisiaj są one wystarczająco skuteczne, aby odciążyć naukowców od wielu rutynowych prac. Przykładowo, pozwalają na sprawdzenie wielu milionów kombinacji stopów metali aby zaproponować 100 najlepszych, zidentyfikowanie setek dotychczas nieodkrytych kraterów na Marsie czy też przeczytanie i analizę wszystkich tekstów w języku francuskim stworzonych w 18-tym wieku. Dlatego można oczekiwać, że coraz częściej naukowiec będzie osobą, która konfiguruje algorytm i analizuje jego wyniki.

Rewolucja w symulacjach fizycznych

Sieci neuronowe okazują się być skuteczne w różnego rodzaju symulacjach układów fizycznych. Na przykład w obszarze fizyki płynów deep learning okazuje się być wielokrotnie wydajniejszy obliczeniowo niż aktualnie stosowane rozwiązania oparte o równania Naviera-Stokesa. W przyszłości przełoży się to na skokowy wzrost możliwości w prognozie pogody, sejsmologii i wielu innych dziedzinach nauki oraz inżynierii. Kilka dni temu zespół DeepMind zaprezentował model, który w dużej mierze rozwiązuje problem przewidywania struktury białek. Aby podkreślić znaczenie tego osiągnięcia – nad tym zagadnieniem pracowano od kilku dekad. Można oczekiwać kolejnych tego rodzaju przełomów w nauce.

Gotowe narzędzia AI od liderów rynku

Istnieje coraz większa ilość gotowych bibliotek, pakietów oraz narzędzi dostępnych w chmurze. Skutkuje to coraz łatwiejszą implementacją AI a tym samym wzrostem skali stosowania tej technologii. Będzie to powodować przesunięcie nacisku w AI z wiedzy eksperckiej na kompetencję integracji tej technologii. Tym samym wzrośnie zapotrzebowanie na osoby na pozycjach mid oraz junior, którzy będą te technologie wdrażać.

Walutą są dane i moc obliczeniowa.

Nowe metody i algorytm AI są łatwo dostępne, przeważnie publikowane otwarcie np. na ArXiv. Z jednej strony relatywnie łatwo jest znaleźć i wykorzystać najświeższe algorytmy, z drugiej strony pozycja „lidera” będącego w posiadaniu najlepszego rozwiązania jest bardzo nietrwała. Powoduje to, że przewagę będą osiągać podmioty będące w posiadaniu lepszych zbiorów danych oraz większej mocy obliczeniowej, które pozwalają na budowę skuteczniejszych modeli AI.

Regulacja AI

W tym momencie w UE toczą się prace nad budową regulacji związanych z korzystaniem z AI oraz szerzej również z danych. Niedługo modele AI w UE będą musiały zawierać dokumentację co do technik obliczeniowych oraz danych wykorzystanych do ich budowy. Będą też musiały być niedyskryminujące. Regulacja korzystania z danych M2M oraz powstanie 9 data spaces i związana z nimi promocja wspólnego korzystania z danych będzie wymagać dyscypliny zarządzania danymi. Można zakładać, że regulacje AI spowodują wzrost zapotrzebowania na data governance, analogicznie jak miało to miejsce w przypadku sektora finansowego.

Czy istnieją anty-trendy AI?

Trudno byłoby wskazać jakieś wyraźne anty-trendy. Ta technologia ma szerokie zastosowanie. Generalnie, warto próbować stosować AI w wielu obszarach. I nie ma co oglądać się na popularność. Niejednokrotnie te obszary, w których nikt nie widzi wartości mogą być dobry punktem startowym, np. dla osoby, która posiada dużą wiedzę w danej dziedzinie.

Jest jednak ważne, aby trzymać się tego, co jest technologicznie możliwe. Wokół AI jest dużo szumu. W mediach jest wiele informacji o możliwościach AI, które nie mają pokrycia w rzeczywistości. Dlatego warto bardzo uważnie patrzeć na to czy dane zastosowanie AI jest możliwe biorąc pod uwagę dzisiejsze możliwości technologiczne.
Przykładowo:
• Implementacje w świecie fizycznym są bardzo trudne. Zawsze może pojawić się wydarzenie, którego algorytm nie przewidział lub nie umie rozpoznać. To właśnie dlatego nadal nie jeździmy autonomicznymi autami.
• Integracje systemów są trudne. Wiele potencjalnych zastosowań AI zakłada, że jeżeli dostarczymy AI bardzo dużo danych to algorytm podejmie optymalne decyzje. Jednak integracja różnych danych z różnych źródeł jest trudna. Nie tylko od strony technologicznej lecz również z powodu konieczności uzgodnienia interesów stron dysponujących danymi.
• AI nie pozwoli przekroczyć ograniczeń fizycznych. Przykładowo, jeżeli osiągamy 97% potencjalnej wydajności silnika, wynikającej z praw fizyki, to AI nie pozwoli wycisnąć 150%.
• AI nie podejmie za nas decyzji. Na danych moment AI nie rozumie świata. Dlatego też nie podejmie za nas decyzji odnośnie tego czego potrzebujemy. Więc wiele rozwiązań AI to będzie wsparcie decyzji człowieka a nie jego zastąpienie.

Nadal niewystarczająco dbamy o dane. Często sprawą o wiele istotniejszą niż AI jest dostępność danych. Gdy posiadamy dane to samo zbudowanie modeli AI potrafi być relatywnie proste i możemy to delegować specjalistom. Niestety często firmy traktują zarządzanie danymi po macoszemu. W takich sytuacjach specjaliści AI zwyczajnie mogą nie mieć możliwości budowy modeli, ponieważ nie będą dysponować danymi. Dlatego często to porządek w danych i ich dostępność są kryterium wejścia dla zastosowania algorytmów.

Tagi

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *