Branża ITSztuczna inteligencjaRynek
AWS wprowadza nowe usługi w zakresie GenAI i modele LLM
Wśród pięciu ogłoszonych właśnie innowacji Amazon Web Services związanych z wykorzystaniem generatywnej sztucznej inteligencji znalazły się m.in. usługa zarządzalna Amazon Bedrock ułatwiająca tworzenie aplikacji łączących potencjał chmury obliczeniowej i wydajnych modeli AI, a także nowe funkcje w ramach przeznaczonego dla programistów generatora kodu aplikacyjnego Amazon CodeWhisperer.
Zapowiedziano m.in. ogólną dostępność rozwiązań Amazon Bedrock i Amazon Titan Embeddings. Nowe funkcje zyskały z kolei rozwiązania CodeWhisperer i QuickSight. Wedle zapowiedzi w ramach platformy Amazon Bedrock niebawem dostępne będą także nowej generacji duże modele językowe rozwijane przez firmę Meta. Mowa tu o modelach z rodziny Llama 2 – Amazon Bedrock ma być pierwszą w pełni zarządzaną usługą wykorzystującą możliwości generatywnej sztucznej inteligencji, w ramach której dostępne będą modele LLM Llama 2. Zdaniem przedstawicieli firmy AWS kolejne innowacje w obszarze sztucznej inteligencji pomogą klientom w rozwoju biznesu, tworzeniu unikalnych aplikacji i zwiększenia efektywności pracy. “Najnowsze ogłoszenie AWS jest kamieniem milowym, który stawia generatywną sztuczną inteligencję na wyciągnięcie ręki każdej firmy, od startupów po największe przedsiębiorstwa – i każdego pracownika, od programistów po analityków danych” – mówi Swami Sivasubramanian, wiceprezes firmy AWS ds. Danych i AI.
Przykładowo, Amazon Bedrock, jako usługa zarządzalna zapewnia łatwość wykorzystania wysokowydajnych podstawowych modeli AI do tworzenia generatywnych aplikacji AI. W ramach tej platformy dostępne są m.in. modele AI rozwijane przez firmy AI21 Labs, Anthropic, Cohere, Meta, Stability AI, a także autorskie rozwiązania koncernu Amazon, które mogą być zasilane własnymi danymi poszczególnych organizacji. Usługa Amazon Bedrock ma przy tym zapewniać m.in. rozbudowane mechanizmy wspierające zachowanie prywatności oraz bezpieczeństwa danych. Jej zastosowanie ma także pozwalać na eksperymentowanie z możliwościami generatywnej sztucznej inteligencji w zakresie różnych scenariuszy użycia. Co ważne, w najbliższych tygodniach Amazon Bedrock zyska także obsługę modeli Llama 2, dodatkowo zoptymalizowanych pod kątem zapewnienia jak najwyższej wydajności działania w ramach infrastruktury chmurowej AWS. Wedle zapowiedzi, klienci będą mogli tworzyć generatywne aplikacje AI oparte na modelach Llama 2 o parametrach 13B i 70B, bez konieczności konfigurowania i zarządzania jakąkolwiek infrastrukturą.
Ogłoszono także ogólną dostępność Amazon Titan Embeddings – modelu LLM wspierającego konwersję tekstu reprezentacje numeryczne zwane embeddings pod kątem stosowania mechanizmów Retrieval-Augmented Generation (RAG) ma potrzeby zasilania dowolnych modeli podstawowych własnymi danymi. Model ten jest częścią rodziny modeli Amazon Titan, stworzonych i wstępnie wytrenowanych przez AWS na dużych zbiorach danych.
W lepszym wykorzystaniu danych na potrzeby analityków biznesowych pomóc ma z kolei Amazon QuickSight – narzędzie pozwalające na tworzenie i dostosowywanie wizualizacji danych za pomocą poleceń w języku naturalnym.
W podniesieniu efektywności pracy programistów pomocne mają być zaś nowe funkcje generatora kodu Amazon CodeWhisperer. Wedle zapowiedzi wprowadzona właśnie funkcjonalność odblokuje pełny potencjał generatywnego kodowania opartego na sztucznej inteligencji, bezpiecznie wykorzystując wewnętrzną bazę kodu i zasoby klienta, aby zapewnić dostosowane do unikalnych wymagań rekomendacje kodu.