Sztuczna inteligencjaRynekPolecane tematy
Microsoft Build AI Day, czyli jak wejść w Generative AI
Warszawska konferencja Microsoft Build AI Day przygotowała nas zapewne nieco do tego, czego można spodziewać się na dorocznej konferencji dla programistów Microsoft Build 2024, która odbędzie się w Seattle w dniach 21-23 maja.
Build AI Day, który odbył się w tym tygodniu w Muzeum POLIN skoncentrowany był na rozwiązaniach wykorzystujących algorytmy AI i generatywną sztuczną inteligencję. Na sesji otwierającej Michelle Simmons, Microsoft General Manager na region Central Europe oficjalnie ogłosiła dostępność w regionie Microsoft Poland Central usług Azure OpenAI.
Na jednej z prezentacji pokazano także, że infrastruktura AI w chmurze Microsoft to dziś łącznie 285 tys. CPU i 10 tys. GPU od NVIDIA. Oczywiście modele OpenAI (m.in. GPT-4, GPT-3.5, Dall-E) to nie jedyne, które są dostępne w chmurze Azure. Wybrać można też spośród kilku oferowanych przez Meta i Hugging Face.
Transformacyjny charakter AI i GenAI
Michelle Simmons przypomniała ponad 70-letnią historię rozwoju sztucznej inteligencji. Era AI zaczęła się bowiem w latach 50-tych XX wieku od rozwoju algorytmów Artificial Intelligence i Machine Learning. Rok 2017 to kolejny przełom i rozwój Deep Learning, który naśladuje nasz sposób myślenia. Natomiast od roku 2022 trwa rewolucja Generative AI.
„ChatGPT w zaledwie 2 miesiące przekroczył liczbę 100 mln użytkowników, co telefonom komórkowym zajęło 16 lat, internetowi 7, a Facebookowi 4,5 roku” – stwierdziła Michelle Simmons. Zacytowała także wyniki badań przeprowadzonych wspólnie z McKinsey. Wynika z nich, że 72% ankietowanych oczekuje transparentności jeśli chodzi o polityki wykorzystania algorytmów AI przez firmy, a 68% z nich ufa rozwiązaniom opartym o sztuczną inteligencję w równym lub większym stopniu niż „tradycyjnym” rozwiązaniom.
„AI może transformować nasze przedsiębiorstwa na kilka sposobów. Może: wzbogacać doświadczenia pracowników; zwiększać lojalność i oferować większą wartość klientom; usprawniać procesy biznesowe; przyspieszać wprowadzanie innowacji w organizacji” – podsumowała prezentację Michelle Simmons.
Praktyczne zastosowania algorytmów AI, ale także ocenę ich monetyzacji przedstawił z kolei na konferencji Andrew Mackay, AI Sales Director w Microsoft w regionie Central & Eastern Europę, Middle East & Africa (CEMA). „1 USD wydany na narzędzia AI to ok. 3,5 USD dodatkowego zysku, a Return on Investment następuje po ok. 14 miesiącach” – mówił.
„Jedną z możliwości szybkiego skorzystania z narzędzi sztucznej inteligencji jest Microsoft Copilot. Natomiast to, do czego zdolne są już modele AI pokazuje film wygenerowany przez OpenAI Sora narzędzie, które zamienia tekst na obraz wideo” – dodał Andrew Mackay.
Od aplikacji Cloud Native do aplikacji inteligentnych
Bardzo ciekawą prezentację miał Mario Kędziora, Digital & App Innovation GTM Lead w Microsoft CEMA. Opisał on – krok po kroku – budowę aplikacji Cloud Native wykorzystujących rozwiązania Azure OpenAI. Podał też ich definicję. Cloud Native to aplikacje oparte o kontenery i mikroserwisy, które są odporne, łatwe w zarządzaniu i obserwowalne.
Budowę i skalowanie inteligentnych aplikacji natywnych dla chmury na platformie Azure ułatwiają takie narzędzia, jak Azure Containter App i Azure Kubernetes Services, a wszystko „okraszone” narzędziami Applied AI Services, Cognitive Services i ML Platform (Centrum AI Azure).
„Najczęstsze scenariusze przebudowy aplikacji z monolitycznych na mikroserwisowe to: modernizacja aplikacji krytycznych; zapewnienie możliwości uruchamiania ich w dowolnym środowisku; telemetria w czasie rzeczywistym; a także budowa rozwiązań dostarczających usługi SaaS; aplikacji wykorzystujących narzędzia AI; czy rozwiązań rozproszonych geograficznie” – stwierdził w swojej prezentacji Mario Kędziora.
Czym różnią się inteligentne aplikacje od tych „tradycyjnych” na konferencji Microsoft Build AI Day wyjaśnili Błażej Miśkiewicz, Lead Cloud Solutions Architect, Apps&Infra oraz Kamil Stachowicz, Senior Azure App Innovation Specialist w Microsoft.
Według podanej przez nich definicji, inteligentne aplikacje wykorzystują do interakcji język naturalny. Są spersonalizowane, a doświadczenia użytkownika są oparte na danych. Zapewniają też ciągły rozwój i usprawnienia. Ich budowanie ułatwia wykorzystanie Microsoft Semantic Kernel SDK, który wypełnia lukę pomiędzy modelami LLM a kodem źródłowym.
W budowie aplikacji inteligentnych, Cloud Native – do czego przekonywał na konferencji Julien Michel, Technical Sales Lead Advanced Data in Azure w Microsoft – warto wykorzystać środowisko Azure Cosmos DB. Jest to w pełni zarządzana baza danych NoSQL dedykowana aplikacjom wykorzystującym narzędzia AI, działającym w świecie e-commerce czy zbierających dane z czujników IoT. Oferuje czasy odpowiedzi liczone w milisekundach, a także automatyczne i natychmiastowe skalowanie.
Podejście do projektów Generative AI
Aplikacje korzystające z AI to dziś w dużej mierze te wykorzystujące generatywnej AI. Agnieszka Niezgoda, Senior Technical Specialist, Data&AI w Microsoft opowiadała o tym, jak budować rozwiązania GenAI przy użyciu usługi Azure OpenAI.
Jak podejść do tego typu projektów? Oto najważniejsze rzeczy, na które – jej zdaniem – warto zwrócić uwagę:
- Nie zawsze trzeba wszystko budować od zera. Warto poszukać gotowych już narzędzi. Jednym z nich jest np. Azure AI Translator.
- Jeden token to średnio 2-3 znaki (liczymy te zarówno w zapytaniu, jak i w odpowiedzi). To nimi płaci się korzystając z rozwiązań GenAI.
- Ważna jest nauka budowania promptów, czyli wprowadzania instrukcji dla modelu, aby wygenerować odpowiedni wynik.
- Istnieje kilka rodzajów promptów. Pierwszy to System Prompt, który definiuje rolę dla modelu LLM, jak ma odpowiadać na pytania i w jaki sposób ma to robić. W nim „zapisuje się” także kwestie bezpieczeństwa.
- User Prompt opisuje zaś to, co chcemy otrzymać, w jakiej formie oraz to, jaką strukturę i format ma zawierać odpowiedź.
- Zdaniem Agnieszki warto zaproponować promptowi „napiwek”; zwrócić uwagę, że odpowiedź będzie miała wpływ na naszą karierę; podkreślić, że nie musi się śpieszyć. Wówczas otrzymamy lepszą odpowiedź.
- Za tym wszystkim stoi Retrieval Augmented Generation (RAG) – architektura rozwiązań bazujących na modelach LLM. Generuje wzorzec projektowy AI, który obejmuje połączenie dużego modelu językowego z zewnętrznym źródłem „wiedzy”.
- Pod spodem rozwiązań GenAI zazwyczaj stoi Azure AI Search.
- Jej zdaniem, warto w naszym rozwiązaniu włączyć Semantic Ranker, aby uporządkować otrzymywane wyniki od najlepszych do najgorszych.
Platforma AI Studio do budowy aplikacji GenAI
Platformą do tworzenia rozwiązań opartych na generatywnej sztucznej inteligencji jest Azure AI Studio. Jej możliwości zaprezentował Dima Turchyn, Artificial Intelligence Go-To-Market Lead w Microsoft CEMEA. Dzięki tej platformie można szybciej tworzyć rozwiązania, korzystając ze wstępnie utworzonych i dostosowywalnych modeli sztucznej inteligencji.
Za pomocą Azure AI Studio można np. zbudować interfejs konserwacyjny oparty na technologii LLM; chatbota, który korzysta z danych w organizacji; zamieniać tekst na mowę; wyciągnąć tekst ze zdjęcia, stworzyć wykres na bazie dostarczonego tekstu lub też wygenerować tekst opisujący ten wykres.
Programowanie wsparte sztuczną inteligencją
Na konferencji Microsoft Build AI Day nie mogłoby oczywiście zabraknąć tematu programowania wspartego przez AI. Wg danych McKinsey, GenAI to przyszłość DevEx.
O tym czym jest i w jaki sposób pomaga programistom GitHub Copilot mówiła Katarzyna Sitkiewicz, Staff Product Manager w GitHub. Pierwsza jego wersja pojawiła się jeszcze 2021 roku, a więc jeszcze przed ChatGPT. Publicznie narzędzie to zostało udostępnione w 2022 r.
„Dziś 55% deweloperów używających narzędzi AI wybiera GitHub Copilot. Aż 87% z nich uważa, że dzięki temu programowanie wymaga od nich mniej wysiłku umysłowego. A 74% twierdzi, że mogą poświęcić czas bardziej satysfakcjonującym zadaniom” – mówi Katarzyna Sitkiewicz.
„Microsoft Build AI Day pokazuje kierunek developerskiego i częściowo biznesowego wykorzystania narzędzi AI opartych o chmurę Azure i jej usługi. Mam jednak spostrzeżenia, które w relacji z tego wydarzenia do tej pory nie padły. Po pierwsze mocno przebija się komunikat, że narzędzia AI mają pomagać programistom, a nie ich zastępować” – skomentował Marcin Białkowski, Chief Technology Officer w firmie Panek. „Nie mniej prostota użycia oraz ekosystem wzajemnie współpracujących narzędzi będą kanibalizowały coraz bardziej rynek ‘seniorów’, przynajmniej tych od infrastruktury chmurowej. Dziś mamy nie tylko AI generujący kod aplikacji, ale również z sukcesem analizujący poprawność deploymentu, gdy ‘nie działa’ coś, co działać powinno” – dodaje.
„Po drugie rynek mocno przyzwyczaił się do wizji komunikacji z AI poprzez czat i narzędzie Copilot niespecjalnie od tego odbiega. Ciekawe jest jednak to, że ‘wsadem’ może być zwykłe, nieostre zdjęcie programu wydarzenia z identyfikatora konferencji plus prompt w formie zapytania o rekomendację uczestnictwa dla programisty. Wiara, że czat będzie jedynym – albo głównym – interfejsem komunikacji z AI była raczej zawsze naiwnością. Niemniej wyciąganie treści z rozmytego zdjęcia oraz jej interpretacja robią wrażenie. Tym większe, że w sensie technicznym nadal mamy przecież do czynienia z bardzo zaawansowaną statystyką w mechanizmach generowania wyniku” – opisuje wrażenia z konferencji Marcin Białkowski.
“Po trzecie – i chyba najważniejsze – integracja z AI via proste API już nie wystarcza, aby myśleć o biznesie. Dla firm, które mają swoje zasoby w postaci dużych zbiorów tekstów, wyszukiwanie semantyczne realizowane za pomocą udoskonalanych zewnętrznie modeli AI może być dobrą drogą do monetyzacji zgromadzonej wiedzy. W tym kontekście użycie prezentowanego na konferencji Semantic Kernela daje nową jakość. Do analizy semantycznej moich własnych danych mogę korzystać z zaawansowanego, zewnętrznego API semantycznego. I to wydaje być się kluczem do generowania sporej części zastosowań biznesowych” – podsumowuje.
Wpływ ekonomiczny GitHub Enterprise Cloud i zaawansowanych zabezpieczeń.
Wpływ ekonomiczny narzędzi programistycznych i usług w chmurze firmy Microsoft.