Sztuczna inteligencjaRynek

Opera udostępnia lokalną obsługę 150 modeli LLM

Nową funkcjonalność dodano do przeglądarki Opera One. Dzięki niej można uzyskać łatwy dostęp do dużych modeli językowych oraz zarządzać nimi lokalnie. Wśród dostępnych modeli AI znajdują się m.in.: Lama, Gemma czy Mixtral. 

Opera udostępnia lokalną obsługę 150 modeli LLM

Opera testuje wspomniany zestaw lokalnych dużych modeli językowych w ramach AI Feature Drops – nowego programu udostępniania funkcji opartych na sztucznej inteligencji. Inicjatywa ta pozwala sprawdzić wiele zestawów sztucznej inteligencji będących jeszcze w wersji demonstracyjnej czy nawet eksperymentalnej.

Aby móc to zrobić, użytkownicy muszą zaktualizować przeglądarkę Opera One – zawierającą Arię, czyli wbudowaną sztuczną inteligencję – do najnowszej wersji. A następnie wykonać kilka kroków – otworzyć panel boczny Aria Chat, wybrać opcję Choose Local Mode, kliknąć Go to settings i wyszukać odpowiedni model – aby aktywować nową funkcję. Każdy z wybranych modeli LLM zająć ma od 2 do nawet 10 GB na dysku komputera. Tak ściągnięty model będzie następnie używany zamiast Arii, do czasu, aż użytkownik rozpocznie nowy czat z wbudowaną sztuczną inteligencją lub ponownie włączy Arię.

“Wprowadzenie lokalnych modeli LLM pozwala Operze rozpocząć eksplorację na polu budowania doświadczeń i wiedzy w ramach szybko się zmieniającej przestrzeni lokalnej sztucznej inteligencji” – podsumował Krystian Kolondra, EVP Browsers and Gaming w Operze.

Tagi

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *