Używanie modelu lokalnego

Duże modele językowe (LLM) różnią się możliwościami. Aby zapewnić Ci kontrolę i elastyczność w zakresie tworzenia oprogramowania z pomocą AI, Android Studio umożliwia wybór modelu lokalnego działającego na Twoim komputerze osobistym, który będzie obsługiwać funkcje AI w IDE.

Wybierz model

Model lokalny jest alternatywą dla obsługi LLM wbudowanej w Android Studio. Jednak Gemini w Android Studio zwykle zapewnia najlepsze działanie AI dla programistów Androida ze względu na zaawansowane modele Gemini. Do zadań związanych z programowaniem na Androida możesz wybrać różne modele Gemini, w tym bezpłatny model domyślny lub modele, do których dostęp uzyskasz za pomocą płatnego klucza Gemini API.

Możliwość korzystania z modelu lokalnego to świetna opcja, jeśli musisz pracować w trybie offline, przestrzegać ścisłych zasad firmy dotyczących korzystania z narzędzi AI lub chcesz eksperymentować z modelami badawczymi typu open source.

Konfigurowanie obsługi modelu lokalnego

  1. Pobierz i zainstaluj najnowszą wersję Android Studio.

  2. Zainstaluj na komputerze lokalnym dostawcę LLM, np. LM Studio lub Ollama.

  3. Dodaj dostawcę modelu do Android Studio.

    • Otwórz Ustawienia > Narzędzia > AI > Dostawcy modeli.
    • Kliknij ikonę .
    • Wybierz Lokalny dostawca.
    • Wpisz opis dostawcy modelu (zwykle nazwę dostawcy modelu).
    • Ustaw port, na którym nasłuchuje dostawca
    • Włączanie modelu
    Okno dialogowe ustawień Android Studio z sekcją Gemini i opcją włączenia trybu offline.
    Rysunek 1. Ustawienia dostawcy modelu.
  4. Pobierz i zainstaluj wybrany model.

    Zapoznaj się z katalogami modeli LM StudioOllama. Aby w pełni korzystać z trybu agenta w Android Studio, wybierz model wytrenowany pod kątem używania narzędzi.

    Okno ustawień Androida Studio z listą dostępnych modeli lokalnych.
    Rysunek 2. Dostępne modele lokalne.
  5. Uruchom środowisko wnioskowania.

    Środowisko wnioskowania udostępnia model aplikacjom lokalnym. Skonfiguruj wystarczająco duże okno tokenów o długości kontekstu, aby uzyskać optymalną wydajność. Szczegółowe instrukcje dotyczące uruchamiania i konfigurowania środowiska znajdziesz w dokumentacji Ollamy lub LM Studio.

  6. Wybierz model.

    Otwórz Android Studio. Przejdź do okna czatu z Gemini. Użyj selektora modeli, aby przełączyć się z domyślnego modelu Gemini na skonfigurowany model lokalny.

    Okno rozmowy z Gemini w Android Studio z menu modeli z opcjami Gemini i modelem lokalnym.
    Rysunek 3. menu modeli

Po połączeniu Androida Studio z modelem lokalnym możesz korzystać z funkcji czatu w środowisku IDE. Wszystkie interakcje są w pełni obsługiwane przez model działający na komputerze lokalnym, co zapewnia samodzielne środowisko programistyczne AI.

Ograniczenia wydajności

Lokalny model offline zwykle nie jest tak wydajny ani inteligentny jak modele Gemini oparte na chmurze. Odpowiedzi na czacie z modeli lokalnych są zwykle mniej dokładne i mają większe opóźnienie w porównaniu z modelami opartymi na chmurze.

Modele lokalne zwykle nie są dostrajane pod kątem programowania na Androida, dlatego mogą zwracać odpowiedzi, które nie uwzględniają interfejsu użytkownika Androida Studio. Niektóre funkcje AI w Androidzie Studio i przypadki użycia związane z programowaniem na Androida nie działają z modelem lokalnym. Funkcja czatu AI w Android Studio jest jednak zwykle obsługiwana przez modele lokalne.

Aby szybko i dokładnie uzyskiwać odpowiedzi na pytania dotyczące wszystkich aspektów tworzenia aplikacji na Androida i korzystania ze wszystkich funkcji Android Studio, używaj Gemini w Android Studio, czyli narzędzia opartego na modelach Gemini.