Novità sul prodotto

Inferenza ibrida sperimentale e nuovi modelli Gemini per Android

Lettura di 3 minuti
Thomas Ezan
Senior Developer Relations Engineer

Se sei uno sviluppatore Android che vuole implementare funzionalità di AI innovative nella tua app, di recente abbiamo lanciato nuovi potenti aggiornamenti:

  • Inferenza ibrida, una nuova API per Firebase AI Logic per sfruttare l'inferenza sia on-device che sul cloud.
  • Supporto di nuovi modelli Gemini, inclusi gli ultimi modelli Nano Banana per la generazione di immagini.

Cominciamo!

Sperimentare con l'inferenza ibrida

Con la nuova API Firebase per l'inferenza ibrida, abbiamo implementato un semplice approccio di routing basato su regole come soluzione iniziale per consentirti di utilizzare l'inferenza on-device e sul cloud tramite un'API unificata. Abbiamo in programma di fornire funzionalità di routing più sofisticate in futuro.

Consente all'app di passare dinamicamente da Gemini Nano in esecuzione localmente sul dispositivo ai modelli Gemini ospitati sul cloud. L'esecuzione on-device utilizza l'API Prompt di ML Kit. L'inferenza sul cloud supporta tutti i modelli Gemini di Firebase AI Logic sia in Vertex AI che nell'API Developer.

Per utilizzarla, aggiungi le dipendenze firebase-ai-ondevice alla tua app insieme a Firebase AI Logic:

dependencies {
 [...] 
 implementation("com.google.firebase:firebase-ai:17.10.1")
 implementation("com.google.firebase:firebase-ai-ondevice:16.0.0-beta01")
}

Durante l'inizializzazione, crei un'istanza GenerativeModel e la configuri con modalità di inferenza specifiche, ad esempio PREFER_ON_DEVICE (esegue il fallback al cloud se Gemini Nano non è disponibile sul dispositivo) o PREFER_IN_CLOUD (esegue il fallback all'inferenza on-device se offline):

val model = Firebase.ai(backend = GenerativeBackend.googleAI())
    .generativeModel(
        modelName = "gemini-3.1-flash-lite",
        onDeviceConfig = OnDeviceConfig(
           mode = InferenceMode.PREFER_ON_DEVICE
        )
    )

val response = model.generateContent(prompt)

L'API Firebase per l'inferenza ibrida per Android è ancora sperimentale e ti invitiamo a provarla nella tua app, soprattutto se utilizzi già Firebase AI Logic. 

Attualmente, i modelli sul dispositivo sono specializzati nella generazione di testo a singolo turno basata su input di testo o di singole immagini bitmap. Per ulteriori dettagli, consulta le limitazioni.

Abbiamo appena pubblicato un nuovo esempio nel catalogo di esempi di AI che sfrutta l'API Firebase per l'inferenza ibrida. Questo esempio mostra come l'API Firebase per l'inferenza ibrida può essere utilizzata per generare una recensione basata su alcuni argomenti selezionati e poi tradurla in varie lingue. Dai un'occhiata al codice per vederlo in azione.

Hybrid_Inference-Inline-imagery.gif
Il nuovo esempio di inferenza ibrida in azione

Il nuovo esempio di inferenza ibrida in azione 

Prova i nostri nuovi modelli

Nell'ambito dei nuovi modelli Gemini, abbiamo rilasciato due modelli particolarmente utili per gli sviluppatori Android e facili da integrare nella tua applicazione tramite l'SDK Firebase AI Logic.

Nano Banana
L'anno scorso abbiamo rilasciato Nano Banana, un modello all'avanguardia per la generazione di immagini. Qualche settimana fa, abbiamo rilasciato un paio di nuovi modelli di Nana Banana.

Nano Banana Pro (immagine Gemini 3 Pro) è progettato per la produzione di asset professionali e può eseguire il rendering di testo ad alta fedeltà, anche in un carattere specifico o simulando diversi tipi di scrittura a mano.

Nano Banana 2 (Gemini 3.1 Flash Image) è la controparte ad alta efficienza di Nano Banana Pro. È ottimizzato per la velocità e per i casi d'uso con volumi elevati. Può essere utilizzato per un'ampia gamma di casi d'uso (infografiche, adesivi virtuali, illustrazioni contestuali e così via).  

I nuovi modelli Nano Banana sfruttano la conoscenza del mondo reale e capacità di ragionamento approfondite per generare immagini precise e dettagliate.

Abbiamo aggiornato il nostro esempio di Magic Selfie (utilizza la generazione di immagini per cambiare lo sfondo del tuo selfie) in modo che utilizzi Nano Banana 2. La segmentazione dello sfondo ora viene gestita direttamente con il modello di generazione delle immagini, il che semplifica l'implementazione e consente alle funzionalità di generazione delle immagini migliorate di Nano Banana 2 di brillare. Guarda come funziona qui.

magic_selfie.png
L'esempio aggiornato di Magic Selfie utilizza Nanobana 2 per aggiornare lo sfondo di un selfie

Puoi utilizzarlo tramite l'SDK Firebase AI Logic. Scopri di più nella documentazione di Android.

Gemini 3.1 Flash-Lite

Abbiamo anche rilasciato Gemini 3.1 Flash-Lite, una nuova versione della famiglia Gemini Flash-Lite. I modelli Gemini Flash-Lite sono stati particolarmente apprezzati dagli sviluppatori Android per il buon rapporto qualità/latenza e il basso costo di inferenza. È stato utilizzato dagli sviluppatori Android per vari casi d'uso, ad esempio la traduzione di messaggi in-app o la generazione di una ricetta a partire dalla foto di un piatto.  

Gemini 3.1 Flash Lite, attualmente in anteprima, consentirà casi d'uso più avanzati con una latenza paragonabile a Gemini 2.5 Flash Lite.

Per saperne di più su questo modello, consulta la documentazione di Firebase.

Conclusione

È il momento ideale per esplorare il nuovo esempio ibrido nel nostro catalogo per vedere queste funzionalità in azione e comprendere i vantaggi del routing tra l'inferenza sul dispositivo e quella sul cloud. Ti invitiamo inoltre a consultare la nostra documentazione per testare i nuovi modelli Gemini.

Scritto da:

Continua a leggere