Novidades do produto
Inferência híbrida experimental e novos modelos do Gemini para Android
Leitura de 3 minutos
Se você é um desenvolvedor Android que quer implementar recursos inovadores de IA no seu app, lançamos recentemente novas atualizações:
- Inferência híbrida, uma nova API para o Firebase AI Logic que aproveita a inferência no dispositivo e na nuvem,
- Suporte a novos modelos do Gemini, incluindo os mais recentes modelos Nano Banana para geração de imagens.
Vamos lá!
Faça testes com a inferência híbrida
Com a nova API do Firebase para inferência híbrida, implementamos uma abordagem de roteamento simples baseada em regras como uma solução inicial para permitir que você use a inferência no dispositivo e na nuvem por meio de uma API unificada. Estamos planejando oferecer recursos de roteamento mais sofisticados no futuro.
Isso permite que seu app alterne dinamicamente entre o Gemini Nano executado localmente no dispositivo e os modelos do Gemini hospedados na nuvem. A execução no dispositivo usa a API Prompt do Kit de ML. A inferência na nuvem oferece suporte a todos os modelos do Gemini do Firebase AI Logic na Vertex AI e na API Developer.
Para usar, adicione as firebase-ai-ondevice dependências ao seu app com o Firebase AI Logic:
dependencies { [...] implementation("com.google.firebase:firebase-ai:17.10.1") implementation("com.google.firebase:firebase-ai-ondevice:16.0.0-beta01") }
Durante a inicialização, você cria uma instância GenerativeModel e a configura com modos de inferência específicos, como PREFER_ON_DEVICE (reverte para a nuvem se o Gemini Nano não estiver disponível no dispositivo) ou PREFER_IN_CLOUD (reverte para a inferência no dispositivo se estiver off-line):
val model = Firebase.ai(backend = GenerativeBackend.googleAI()) .generativeModel( modelName = "gemini-3.1-flash-lite", onDeviceConfig = OnDeviceConfig( mode = InferenceMode.PREFER_ON_DEVICE ) ) val response = model.generateContent(prompt)
A API do Firebase para inferência híbrida no Android ainda é experimental. Recomendamos que você a teste no seu app, principalmente se já estiver usando o Firebase AI Logic.
Atualmente, os modelos no dispositivo são especializados para geração de texto de uma única vez com base em entradas de texto ou imagem de bitmap única. Consulte as limitações para mais detalhes.
Acabamos de publicar um novo exemplo no catálogo de exemplos de IA que aproveita a API do Firebase para híbrido. Ele demonstra como a API do Firebase para inferência híbrida pode ser usada para gerar uma avaliação com base em alguns tópicos selecionados e traduzi-la para vários idiomas. Confira o código para ver como funciona.
O novo exemplo de inferência híbrida em ação
Teste nossos novos modelos
Como parte dos novos modelos do Gemini, lançamos dois modelos particularmente úteis para desenvolvedores Android e fáceis de integrar ao seu aplicativo usando o SDK Firebase AI Logic.
Nano Banana
No ano passado, lançamos o Nano Banana, um modelo de geração de imagens de última geração. E, há algumas semanas, lançamos alguns novos modelos do Nana Banana.
O _Nano Banana Pro (Gemini 3 Pro Image) foi projetado para produção de recursos profissionais e pode renderizar texto de alta fidelidade, mesmo em uma fonte específica ou simulando diferentes tipos de caligrafia.
O Nano Banana 2 (Gemini 3.1 Flash Image) é a contraparte de alta eficiência do Nano Banana Pro. Ele é otimizado para velocidade e casos de uso de alto volume. Ele pode ser usado para uma ampla variedade de casos de uso (infográficos, adesivos virtuais, ilustrações contextuais etc.).
Os novos modelos do Nano Banana aproveitam o conhecimento do mundo real e os recursos de raciocínio profundo para gerar imagens precisas e detalhadas.
Atualizamos nosso exemplo de Magic Selfie (use a geração de imagens para mudar o plano de fundo da sua selfie) para usar o Nano Banana 2. A segmentação de plano de fundo agora é processada diretamente com o modelo de geração de imagens, o que facilita a implementação e permite que o Nano Banana 2 melhore os recursos de geração de imagens. Confira como funciona aqui.
Você pode usá-lo pelo SDK Firebase AI Logic. Saiba mais na documentação do Android.
Gemini 3.1 Flash-Lite
Também lançamos o Gemini 3.1 Flash-Lite, uma nova versão da família Gemini Flash-Lite. Os modelos do Gemini Flash-Lite são particularmente preferidos pelos desenvolvedores Android devido à boa proporção qualidade/latência e ao baixo custo de inferência. Ele tem sido usado por desenvolvedores Android para vários casos de uso, como tradução de mensagens no app ou geração de uma receita a partir de uma foto de um prato.
O Gemini 3.1 Flash-Lite, atualmente na versão prévia, vai permitir casos de uso mais avançados com latência comparável ao Gemini 2.5 Flash-Lite.
Para saber mais sobre esse modelo, consulte a documentação do Firebase.
Conclusão
É um ótimo momento para explorar o novo exemplo híbrido no nosso catálogo para conferir esses recursos em ação e entender os benefícios do roteamento entre a inferência no dispositivo e na nuvem. Também recomendamos que você consulte nossa documentação para testar os novos modelos do Gemini.
Continuar lendo
-
Novidades do produto
Hoje, estamos expandindo a família de modelos do Gemini 3 com o lançamento do Gemini 3 Flash, uma inteligência de fronteira criada para velocidade a uma fração do custo.
Thomas Ezan • Leitura de 2 minutos
-
Novidades do produto
Adicionar imagens personalizadas ao seu app pode melhorar e personalizar significativamente a experiência do usuário e aumentar o engajamento do usuário.
Thomas Ezan, Mozart Louis • Leitura de 5 minutos
-
Novidades do produto
O Android Studio Panda 4 agora é estável e está pronto para uso na produção. Essa versão traz o modo de planejamento, a previsão da próxima edição e muito mais, facilitando a criação de apps Android de alta qualidade.
Matt Dyor • Leitura de 5 minutos
Fique por dentro
Receba as últimas informações sobre o desenvolvimento Android na sua caixa de entrada semanalmente.