AplikacjeProgramowanieRynek
Przetrenowany na AWS model językowy Falcon 40B dostępny dla użytkowników
Amazon Web Services poinformował, że Technology Innovation Institute (TII) w Abu Zabi przeszkolił swój duży model językowy Falcon 40B na AWS. Falcon LLM ma imponującą pojemność 40 miliardów parametrów i został wytrenowany na 1 bilionie tokenów. Model ten wykazał się wysoką wydajnością i dokładnością – jest najwyżej sklasyfikowanym modelem open-source w publicznej tabeli liderów Hugging Face Open LLM – podkreślają przedstawiciele AWS.
Użytkownicy mogą uzyskać dostęp do Falcon 40B za pośrednictwem Amazon SageMaker, aby wykorzystać jego możliwości w aplikacjach takich jak tłumaczenie, odpowiadanie na pytania, podsumowywanie i identyfikacja obrazów. Jak wskazano, umożliwia on konstruowanie i dostosowywanie narzędzi AI, ułatwiając płynną integrację i zapewniając długoterminową ochronę zasobów danych. Wagi modeli są dostępne do pobrania, sprawdzenia i wdrożenia w dowolnym miejscu.
Falcon LLM jest również dostępny w Amazon SageMaker JumpStart, centrum uczenia maszynowego (ML) SageMaker, które oferuje wstępnie wytrenowane modele, wbudowane algorytmy i gotowe szablony rozwiązań, aby pomóc użytkownikom szybko rozpocząć pracę z ML. Każdy może wdrożyć i używać Falcon LLM za pomocą kilku kliknięć w SageMaker Studio lub programowo za pośrednictwem SageMaker Python SDK, zapewniają przedstawiciele AWS.
Amazon Bedrock i Amazon CodeWhisperer
Dodajmy, że na początku tego roku AWS ogłosił szereg innowacji w swoim portfolio uczenia maszynowego (ML), aby wspierać generatywne aplikacje AI.
Jedną z nich jest Amazon Bedrock – to nowa usługa służąca do budowania i skalowania aplikacji wykorzystujących generatywną AI, czyli aplikacji, które mogą tworzyć teksty, obrazy, nagrania i dane syntetyczne zgodnie z otrzymanymi wskazówkami. Wykorzystując Bedrock, deweloperzy mogą ulepszyć swoje oprogramowanie za pomocą generujących teksty systemów sztucznej inteligencji.
Bedrock zapewnia dostęp do najnowocześniejszych modeli językowych stworzonych przez dwa startupy zajmujące się opracowywaniem modeli językowych – Anthropic i AI21. AWS umożliwi również dostęp do Stable Diffusion, modelu sztucznej inteligencji służącego do generowania obrazów, oferowanego przez Stability AI – startup pracujący nad open-source’owymi, generatywnymi modelami AI. AWS stosuje dwa generatywne modele językowe – Titan Text potrafi generować tekst na bazie otrzymanych wskazówek, a Text Embeddings generuje matematyczne odzwierciedlenie tekstu, które może być użyte np. do tłumaczenia czy wyszukiwania.
Jak zapewniają przedstawiciele AWS, użytkownicy mogą korzystać z Bedrock bez obawy, że przekazywane systemowi dane wyciekną do ogólnej puli danych stosowanych do szkolenia modeli, co stanowi odpowiedź na jedno z najpoważniejszych zastrzeżeń zgłaszanych przez organizacje chcące budować własne generatywne produkty AI.
Drugą z innowacji jest Amazon CodeWhisperer czyli wspierany przez sztuczną inteligencję system wspomagający kodowanie, dzięki któremu staje się ono szybsze i łatwiejsze. Wykorzystując generatywną sztuczną inteligencję, podpowiada on na bieżąco fragmenty kodu na podstawie komentarzy i wcześniejszego kodu wpisanego przez użytkownika. Indywidualni programiści mogą uzyskać dostęp do Amazon CodeWhisperer za darmo, bez żadnych ograniczeń użytkowania (do użytku profesjonalnego dostępne są również wersje płatne z funkcjami takimi jak dodatkowe zabezpieczenia klasy enterprise i funkcje administracyjne).