Notícias sobre produtos
Anúncio do Gemma 4 na prévia do AICore para desenvolvedores
Leitura de 3 minutos
No Google, nosso objetivo é levar os modelos de IA mais avançados diretamente para os dispositivos Android no seu bolso. Hoje, temos o prazer de anunciar o lançamento do nosso mais recente modelo aberto de última geração: o Gemma 4.
Esses modelos são a base da próxima geração do Gemini Nano. Portanto, o código que você escrever hoje para o Gemma 4 vai funcionar automaticamente em dispositivos com o Gemini Nano 4, que serão lançados ainda este ano. Com o Gemini Nano 4, você se beneficia das nossas otimizações de desempenho adicionais para poder enviar para produção em todo o ecossistema Android com a inferência no dispositivo mais eficiente.
Você pode ter acesso antecipado a esse modelo hoje mesmo na Prévia do AICore para desenvolvedores.
Selecione o modelo Gemini Nano 4 Fast na interface da prévia para desenvolvedores e confira a velocidade de inferência extremamente rápida em ação antes de escrever qualquer código
Como o Gemma 4 oferece suporte nativo a mais de 140 idiomas, você pode esperar experiências localizadas e multilíngues aprimoradas para seu público global. Além disso, o Gemma 4 oferece desempenho líder do setor com compreensão multimodal, permitindo que seus apps entendam e processem texto, imagens e áudio. Para oferecer o melhor equilíbrio entre desempenho e eficiência, o Gemma 4 no Android está disponível em dois tamanhos:
- E4B:desenvolvido para maior capacidade de raciocínio e tarefas complexas.
- E2B:otimizado para velocidade máxima (3 vezes mais rápido que o modelo E4B!) e menor latência.
O novo modelo é até quatro vezes mais rápido que as versões anteriores e usa até 60% menos bateria. A partir de hoje, você pode testar recursos aprimorados, incluindo:
- Raciocínio:agora é possível esperar que os comandos de linha de raciocínio e as instruções condicionais retornem resultados de maior qualidade. Por exemplo: "Determine se o seguinte comentário em uma conversa atende às diretrizes da comunidade. O comentário não passa pelas diretrizes da comunidade se contiver um ou mais destes reason_for_flag: linguagem obscena, linguagem depreciativa, discurso de ódio. Se a revisão passar pelas diretrizes da comunidade, retorne {true}. Caso contrário, retorne {false, reason_for_flag}.”
- Matemática:com habilidades matemáticas aprimoradas, o modelo agora pode responder a perguntas com mais precisão. Por exemplo: "Se eu receber 26 pagamentos por ano, quanto preciso contribuir em cada um para atingir minha meta de poupança de US $10.000 ao longo de um ano?"
- Compreensão de tempo:o modelo agora é mais capaz de raciocinar sobre o tempo, o que o torna mais preciso para casos de uso que envolvem agendas, lembretes e alarmes. Por exemplo: "O evento é às 18h do dia 18 de agosto, e um lembrete deve ser enviado 10 horas antes do evento. Retorne a hora e a data em que o lembrete deve ser enviado."
- Compreensão de imagens:os casos de uso que envolvem OCR (reconhecimento óptico de caracteres), como compreensão de gráficos, extração de dados visuais e reconhecimento de escrita à mão, agora vão retornar resultados mais precisos.
Participe da prévia para desenvolvedores hoje mesmo para baixar esses modelos e começar a criar recursos de última geração.
Começar a testar o modelo
Você pode testar o modelo sem código seguindo o guia da prévia para desenvolvedores. Se você quiser integrar esses modelos diretamente ao seu fluxo de trabalho atual, isso é muito fácil. Acesse o Android Studio para refinar seu comando e criar com a API Prompt do Kit de ML. Lançamos uma nova capacidade de especificar um modelo, permitindo segmentar as variantes E2B (rápida) ou E4B (completa) para testes.
// Define the configuration with a specific track and preference val previewFullConfig = generationConfig { modelConfig = ModelConfig { releaseTrack = ModelReleaseTrack.PREVIEW preference = ModelPreference.FULL } } // Initialize the GenerativeModel with the configuration val previewModel = GenerativeModel.getClient(previewFullConfig) // Verify that the specific preview model is available val previewModelStatus = previewModel.checkStatus() if (previewModelStatus == FeatureStatus.AVAILABLE) { // Proceed with inference val response = previewModel.generateContent("If I get 26 paychecks per year, how much I should contribute each paycheck to reach my savings goal of $10k over the course of a year? Return only the amount.") } else { // Handle the case where the preview model is not available // (e.g., print out log statements) }
O que esperar durante a prévia para desenvolvedores
O objetivo desta prévia para desenvolvedores é ajudar você a começar a refinar a precisão dos comandos e explorar novos casos de uso para seus apps específicos.
Vamos fazer várias atualizações durante o período de prévia, incluindo suporte para chamada de ferramentas, saída estruturada, comandos do sistema e modo de pensamento na API Prompt. Assim, será mais fácil aproveitar ao máximo os novos recursos do Gemma 4, além de otimizações significativas de desempenho.
Os modelos de prévia estão disponíveis para teste em dispositivos com AICore. Esses modelos serão executados na geração mais recente de aceleradores de IA especializados da Google, MediaTek e Qualcomm Technologies. Em outros dispositivos, os modelos serão executados inicialmente em uma implementação de CPU que não é representativa da performance final de produção. Se o seu dispositivo não tiver o AICore ativado, você também poderá testar esses modelos no app Galeria de IA na borda. No futuro, vamos oferecer suporte para mais dispositivos.
Como começar
Quer saber o que o Gemma 4 pode fazer pelos seus usuários?
- Ativação:inscreva-se na prévia do AICore para desenvolvedores.
- Download:depois de ativar, você pode acionar o download dos modelos mais recentes do Gemma 4 diretamente no seu dispositivo de teste compatível.
- Build:atualize sua implementação do Kit de ML para segmentar os novos modelos e comece a criar no Android Studio.
Continuar lendo
-
Notícias sobre produtos
Para ajudar ainda mais a levar seus casos de uso da API Kit de ML Prompt para produção, temos o prazer de anunciar a Otimização automática de comandos (APO, na sigla em inglês) para modelos no dispositivo na Vertex AI. A Otimização automática de comandos é uma ferramenta que ajuda você a encontrar automaticamente o comando ideal para seus casos de uso.
Chetan Tekur, Chao Zhao, Paul Zhou, Caren Chang • 3 min de leitura
-
Notícias sobre produtos
A IA está facilitando a criação de experiências personalizadas em apps que transformam o conteúdo no formato certo para os usuários. Antes, permitíamos que os desenvolvedores fizessem a integração com o Gemini Nano usando as APIs GenAI do Kit de ML, que são personalizadas para casos de uso específicos, como resumo e descrição de imagens.
Caren Chang, Chengji Yan, Penny Li • Leitura de 2 minutos
-
Notícias sobre produtos
O fluxo de trabalho e as necessidades de IA de cada desenvolvedor são únicos. Por isso, é importante poder escolher como a IA ajuda no desenvolvimento. Em janeiro, lançamos a opção de escolher qualquer modelo de IA local ou remoto para ativar a funcionalidade de IA no Android Studio.
Matthew Warner • Leitura de 2 minutos
Fique por dentro
Receba os insights mais recentes sobre desenvolvimento Android na sua caixa de entrada semanalmente.