Notícias sobre produtos

Anúncio do Gemma 4 na prévia do AICore para desenvolvedores

Leitura de 3 minutos

No Google, nosso objetivo é levar os modelos de IA mais avançados diretamente para os dispositivos Android no seu bolso. Hoje, temos o prazer de anunciar o lançamento do nosso mais recente modelo aberto de última geração: o Gemma 4.

Esses modelos são a base da próxima geração do Gemini Nano. Portanto, o código que você escrever hoje para o Gemma 4 vai funcionar automaticamente em dispositivos com o Gemini Nano 4, que serão lançados ainda este ano. Com o Gemini Nano 4, você se beneficia das nossas otimizações de desempenho adicionais para poder enviar para produção em todo o ecossistema Android com a inferência no dispositivo mais eficiente.

Você pode ter acesso antecipado a esse modelo hoje mesmo na Prévia do AICore para desenvolvedores.

large_Inline-imagery.gif

Selecione o modelo Gemini Nano 4 Fast na interface da prévia para desenvolvedores e confira a velocidade de inferência extremamente rápida em ação antes de escrever qualquer código

Como o Gemma 4 oferece suporte nativo a mais de 140 idiomas, você pode esperar experiências localizadas e multilíngues aprimoradas para seu público global. Além disso, o Gemma 4 oferece desempenho líder do setor com compreensão multimodal, permitindo que seus apps entendam e processem texto, imagens e áudio. Para oferecer o melhor equilíbrio entre desempenho e eficiência, o Gemma 4 no Android está disponível em dois tamanhos:

  • E4B:desenvolvido para maior capacidade de raciocínio e tarefas complexas.
  • E2B:otimizado para velocidade máxima (3 vezes mais rápido que o modelo E4B!) e menor latência.

O novo modelo é até quatro vezes mais rápido que as versões anteriores e usa até 60% menos bateria. A partir de hoje, você pode testar recursos aprimorados, incluindo:

  • Raciocínio:agora é possível esperar que os comandos de linha de raciocínio e as instruções condicionais retornem resultados de maior qualidade. Por exemplo: "Determine se o seguinte comentário em uma conversa atende às diretrizes da comunidade. O comentário não passa pelas diretrizes da comunidade se contiver um ou mais destes reason_for_flag: linguagem obscena, linguagem depreciativa, discurso de ódio. Se a revisão passar pelas diretrizes da comunidade, retorne {true}. Caso contrário, retorne {false, reason_for_flag}.”
  • Matemática:com habilidades matemáticas aprimoradas, o modelo agora pode responder a perguntas com mais precisão. Por exemplo: "Se eu receber 26 pagamentos por ano, quanto preciso contribuir em cada um para atingir minha meta de poupança de US $10.000 ao longo de um ano?"
  • Compreensão de tempo:o modelo agora é mais capaz de raciocinar sobre o tempo, o que o torna mais preciso para casos de uso que envolvem agendas, lembretes e alarmes. Por exemplo: "O evento é às 18h do dia 18 de agosto, e um lembrete deve ser enviado 10 horas antes do evento. Retorne a hora e a data em que o lembrete deve ser enviado."
  • Compreensão de imagens:os casos de uso que envolvem OCR (reconhecimento óptico de caracteres), como compreensão de gráficos, extração de dados visuais e reconhecimento de escrita à mão, agora vão retornar resultados mais precisos.

Participe da prévia para desenvolvedores hoje mesmo para baixar esses modelos e começar a criar recursos de última geração.

Começar a testar o modelo

Você pode testar o modelo sem código seguindo o guia da prévia para desenvolvedores. Se você quiser integrar esses modelos diretamente ao seu fluxo de trabalho atual, isso é muito fácil. Acesse o Android Studio para refinar seu comando e criar com a API Prompt do Kit de ML. Lançamos uma nova capacidade de especificar um modelo, permitindo segmentar as variantes E2B (rápida) ou E4B (completa) para testes.

  // Define the configuration with a specific track and preference
val previewFullConfig = generationConfig {
    modelConfig = ModelConfig {
        releaseTrack = ModelReleaseTrack.PREVIEW
        preference = ModelPreference.FULL
    }
}

// Initialize the GenerativeModel with the configuration
val previewModel = GenerativeModel.getClient(previewFullConfig)

// Verify that the specific preview model is available
val previewModelStatus = previewModel.checkStatus()
if (previewModelStatus == FeatureStatus.AVAILABLE) {
    // Proceed with inference
    val response = previewModel.generateContent("If I get 26 paychecks per year, how much I should contribute each paycheck to reach my savings goal of $10k over the course of a year? Return only the amount.")

} else {
    // Handle the case where the preview model is not available
    // (e.g., print out log statements)
}

O que esperar durante a prévia para desenvolvedores

O objetivo desta prévia para desenvolvedores é ajudar você a começar a refinar a precisão dos comandos e explorar novos casos de uso para seus apps específicos.

Vamos fazer várias atualizações durante o período de prévia, incluindo suporte para chamada de ferramentas, saída estruturada, comandos do sistema e modo de pensamento na API Prompt. Assim, será mais fácil aproveitar ao máximo os novos recursos do Gemma 4, além de otimizações significativas de desempenho.

Os modelos de prévia estão disponíveis para teste em dispositivos com AICore. Esses modelos serão executados na geração mais recente de aceleradores de IA especializados da Google, MediaTek e Qualcomm Technologies. Em outros dispositivos, os modelos serão executados inicialmente em uma implementação de CPU que não é representativa da performance final de produção. Se o seu dispositivo não tiver o AICore ativado, você também poderá testar esses modelos no app Galeria de IA na borda. No futuro, vamos oferecer suporte para mais dispositivos.

Como começar

Quer saber o que o Gemma 4 pode fazer pelos seus usuários?

  1. Ativação:inscreva-se na prévia do AICore para desenvolvedores.
  2. Download:depois de ativar, você pode acionar o download dos modelos mais recentes do Gemma 4 diretamente no seu dispositivo de teste compatível.
  3. Build:atualize sua implementação do Kit de ML para segmentar os novos modelos e comece a criar no Android Studio.
Escrito por:

Continuar lendo