Novedades de productos

Inferencia híbrida experimental y nuevos modelos de Gemini para Android

Lectura de 3 min
Thomas Ezan
Ingeniero sénior de Relaciones con Desarrolladores

Si eres desarrollador de Android y quieres implementar funciones innovadoras de IA en tu app, recientemente lanzamos nuevas actualizaciones potentes:

  • Inferencia híbrida, una nueva API para Firebase AI Logic que aprovecha la inferencia integrada en el dispositivo y en la nube
  • Compatibilidad con nuevos modelos de Gemini, incluidos los modelos Nano Banana más recientes para la generación de imágenes

Comencemos.

Experimenta con la inferencia híbrida

Con la nueva API de Firebase para la inferencia híbrida, implementamos un enfoque de enrutamiento simple basado en reglas como solución inicial para permitirte usar la inferencia en el dispositivo y en la nube a través de una API unificada. Planeamos proporcionar capacidades de enrutamiento más sofisticadas en el futuro.

Permite que tu app cambie de forma dinámica entre Gemini Nano que se ejecuta de forma local en el dispositivo y los modelos de Gemini alojados en la nube. La ejecución integrada en el dispositivo usa la API de Prompt del Kit de AA. La inferencia en la nube admite todos los modelos de Gemini de Firebase AI Logic en Vertex AI y la API de Developer.

Para usarla, agrega las firebase-ai-ondevice dependencias a tu app junto con Firebase AI Logic:

dependencies {
 [...] 
 implementation("com.google.firebase:firebase-ai:17.10.1")
 implementation("com.google.firebase:firebase-ai-ondevice:16.0.0-beta01")
}

Durante la inicialización, creas una instancia de GenerativeModel y la configuras con modos de inferencia específicos, como PREFER_ON_DEVICE (vuelve a la nube si Gemini Nano no está disponible en el dispositivo) o PREFER_IN_CLOUD (vuelve a la inferencia integrado en el dispositivo si está sin conexión):

val model = Firebase.ai(backend = GenerativeBackend.googleAI())
    .generativeModel(
        modelName = "gemini-3.1-flash-lite",
        onDeviceConfig = OnDeviceConfig(
           mode = InferenceMode.PREFER_ON_DEVICE
        )
    )

val response = model.generateContent(prompt)

La API de Firebase para la inferencia híbrida para Android aún es experimental, y te recomendamos que la pruebes en tu app, en especial si ya usas Firebase AI Logic.

Actualmente, los modelos integrados en el dispositivo están especializados para la generación de texto de un solo turno basada en texto o entradas de imágenes de mapa de bits individuales. Consulta las limitaciones para obtener más detalles.

Acabamos de publicar un nuevo ejemplo en el Catálogo de muestras de IA que aprovecha la API de Firebase para el híbrido. En él, se muestra cómo se puede usar la API de Firebase para la inferencia híbrida para generar una reseña basada en algunos temas seleccionados y, luego, traducirla a varios idiomas. Consulta el código para verlo en acción.

Hybrid_Inference-Inline-imagery.gif
El nuevo ejemplo de inferencia híbrida en acción

El nuevo ejemplo de inferencia híbrida en acción

Prueba nuestros nuevos modelos

Como parte de los nuevos modelos de Gemini, lanzamos dos modelos que son especialmente útiles para los desarrolladores de Android y fáciles de integrar en tu aplicación a través del SDK de Firebase AI Logic.

Nano Banana
El año pasado, lanzamos Nano Banana, un modelo de generación de imágenes de vanguardia. Hace unas semanas, lanzamos un par de modelos nuevos de Nana Banana.

Nano Banana Pro (Gemini 3 Pro Image) está diseñado para la producción de recursos profesionales y puede renderizar texto de alta fidelidad, incluso en una fuente específica o simulando diferentes tipos de escritura a mano.

_Nano Banana 2 (Gemini 3.1 Flash Image)_ es la contraparte de alta eficiencia de Nano Banana Pro. Está optimizado para la velocidad y los casos de uso de gran volumen. Se puede usar para una amplia variedad de casos de uso (infografías, stickers virtuales, ilustraciones contextuales, etcétera).  

Los nuevos modelos de Nano Banana aprovechan el conocimiento del mundo real y las capacidades de razonamiento profundo para generar imágenes precisas y detalladas.

Actualizamos nuestra muestra de Magic Selfie (usa la generación de imágenes para cambiar el fondo de tu selfie) para usar Nano Banana 2. La segmentación de fondo ahora se controla directamente con el modelo de generación de imágenes, lo que facilita la implementación y permite que Nano Banana 2 mejore las capacidades de generación de imágenes. Puedes verlo en acción aquí.

magic_selfie.png
La muestra actualizada de Magic Selfie usa Nanobana 2 para actualizar el fondo de una selfie

Puedes usarlo a través del SDK de Firebase AI Logic. Obtén más información en la documentación de Android.

Gemini 3.1 Flash-Lite

También lanzamos Gemini 3.1 Flash-Lite, una nueva versión de la familia Gemini Flash-Lite. Los modelos de Gemini Flash-Lite fueron especialmente favorecidos por los desarrolladores de Android por su buena relación calidad/latencia y su bajo costo de inferencia. Los desarrolladores de Android lo usaron para varios casos de uso, como la traducción de mensajes en la app o la generación de una receta a partir de una imagen de un plato.

Gemini 3.1 Flash-Lite, que actualmente está en versión preliminar, habilitará casos de uso más avanzados con una latencia comparable a la de Gemini 2.5 Flash-Lite.

Para obtener más información sobre este modelo, consulta la documentación de Firebase.

Conclusión

Es un buen momento para explorar la nueva muestra híbrida en nuestro catálogo para ver estas capacidades en acción y comprender los beneficios del enrutamiento entre la inferencia integrado en el dispositivo y en la nube. También te recomendamos que consultes nuestra documentación para probar los nuevos modelos de Gemini.

Escrito por:

Seguir leyendo