Novità sul prodotto

Inferenza ibrida sperimentale e nuovi modelli Gemini per Android

3 minuti di lettura
Thomas Ezan
Senior Developer Relations Engineer

Se sei uno sviluppatore Android che vuole implementare funzionalità di AI innovative nella tua app, di recente abbiamo lanciato nuovi aggiornamenti efficaci:

  • Inferenza ibrida, una nuova API per Firebase AI Logic per sfruttare l'inferenza sia on-device che nel cloud,
  • Supporto per i nuovi modelli Gemini, inclusi gli ultimi modelli Nano Banana per la generazione di immagini.

Cominciamo!

Sperimenta l'inferenza ibrida

Con la nuova API Firebase per l'inferenza ibrida, abbiamo implementato una semplice soluzione iniziale basata su regole di routing che ti consente di utilizzare l'inferenza sia on-device che nel cloud tramite un'API unificata. In futuro prevediamo di fornire funzionalità di routing più sofisticate.

Consente alla tua app di passare dinamicamente da Gemini Nano in esecuzione localmente sul dispositivo ai modelli Gemini ospitati nel cloud. L'esecuzione on-device utilizza l'API Prompt di ML Kit. L'inferenza nel cloud supporta tutti i modelli Gemini di Firebase AI Logic sia in Vertex AI che nell'API Developer.

Per utilizzarla, aggiungi le dipendenze firebase-ai-ondevice alla tua app insieme a Firebase AI Logic:

dependencies {
 [...] 
 implementation("com.google.firebase:firebase-ai:17.10.1")
 implementation("com.google.firebase:firebase-ai-ondevice:16.0.0-beta01")
}

Durante l'inizializzazione, crei un'istanza di GenerativeModel e la configuri con modalità di inferenza specifiche, ad esempio PREFER_ON_DEVICE (esegue il fallback al cloud se Gemini Nano non è disponibile sul dispositivo) o PREFER_IN_CLOUD (esegue il fallback all'inferenza on-device se non è disponibile una connessione a internet):

val model = Firebase.ai(backend = GenerativeBackend.googleAI())
    .generativeModel(
        modelName = "gemini-3.1-flash-lite",
        onDeviceConfig = OnDeviceConfig(
           mode = InferenceMode.PREFER_ON_DEVICE
        )
    )

val response = model.generateContent(prompt)

L'API Firebase per l'inferenza ibrida per Android è ancora sperimentale e ti invitiamo a provarla nella tua app, soprattutto se utilizzi già Firebase AI Logic.

Attualmente, i modelli on-device sono specializzati per la generazione di testo a turno singolo basata su input di testo o immagini bitmap singole. Per maggiori dettagli, consulta le limitazioni.

Abbiamo appena pubblicato un nuovo esempio nel catalogo di esempi di AI che utilizza l'API Firebase per l'ibrido. Questo esempio mostra come l'API Firebase per l'inferenza ibrida può essere utilizzata per generare una recensione basata su alcuni argomenti selezionati e poi tradurla in varie lingue. Dai un'occhiata al codice per vederlo in azione.

Hybrid_Inference-Inline-imagery.gif
Il nuovo esempio di inferenza ibrida in azione

Il nuovo esempio di inferenza ibrida in azione

Prova i nostri nuovi modelli

Nell'ambito dei nuovi modelli Gemini, abbiamo rilasciato due modelli particolarmente utili per gli sviluppatori Android e facili da integrare nella tua applicazione tramite l'SDK Firebase AI Logic.

Nano Banana
L'anno scorso abbiamo rilasciato Nano Banana, un modello all'avanguardia per la generazione di immagini. Qualche settimana fa, abbiamo rilasciato un paio di nuovi modelli Nano Banana.

Nano Banana Pro (immagine Gemini 3 Pro) è progettato per la produzione di asset professionali e può eseguire il rendering di testo ad alta fedeltà, anche in un carattere specifico o simulando diversi tipi di scrittura a mano.

_Nano Banana 2 (immagine Gemini 3.1 Flash)_ è la controparte ad alta efficienza di Nano Banana Pro. È ottimizzato per la velocità e i casi d'uso ad alto volume. Può essere utilizzato per un'ampia gamma di casi d'uso (infografiche, adesivi virtuali, illustrazioni contestuali e così via).  

I nuovi modelli Nano Banana sfruttano la conoscenza del mondo reale e le funzionalità di ragionamento approfondito per generare immagini precise e dettagliate.

Abbiamo aggiornato il nostro esempio di Magic Selfie (utilizza la generazione di immagini per cambiare lo sfondo del tuo selfie) in modo che utilizzi Nano Banana 2. Ora la segmentazione dello sfondo viene gestita direttamente con il modello di generazione di immagini, il che semplifica l'implementazione e consente di mettere in risalto le funzionalità di generazione di immagini migliorate di Nano Banana 2. Puoi vederlo in azione qui.

magic_selfie.png
L'esempio aggiornato di Magic Selfie utilizza Nano Banana 2 per aggiornare lo sfondo di un selfie

Puoi utilizzarlo tramite l'SDK Firebase AI Logic. Scopri di più nella documentazione di Android.

Gemini 3.1 Flash-Lite

Abbiamo anche rilasciato Gemini 3.1 Flash-Lite, una nuova versione della famiglia Gemini Flash-Lite. I modelli Gemini Flash-Lite sono stati particolarmente apprezzati dagli sviluppatori Android per il loro buon rapporto qualità/latenza e il basso costo di inferenza. Sono stati utilizzati dagli sviluppatori Android per vari casi d'uso, come la traduzione di messaggi in-app o la generazione di una ricetta da una foto di un piatto.

Gemini 3.1 Flash-Lite, attualmente in anteprima, consentirà casi d'uso più avanzati con una latenza paragonabile a quella di Gemini 2.5 Flash-Lite.

Per scoprire di più su questo modello, consulta la documentazione di Firebase.

Conclusione

È il momento ideale per esplorare il nuovo esempio ibrido nel nostro catalogo per vedere queste funzionalità in azione e comprendere i vantaggi del routing tra l'inferenza on-device e quella nel cloud. Ti invitiamo inoltre a consultare la nostra documentazione per testare i nuovi modelli Gemini.

Scritto da:

Continua a leggere