Utilizzare LiteRT su Android

LiteRT su Android fornisce gli elementi essenziali per il deployment di funzionalità ML personalizzate e ad alte prestazioni nella tua app per Android.

Diagramma che illustra l'architettura di LiteRT, un framework per
l'esecuzione di modelli di machine learning su dispositivi Android. Mostra i componenti
coinvolti, inclusi il runtime ML, i delegati di accelerazione hardware e Google
Play Services.

LiteRT per il runtime ML

Utilizza LiteRT con Google Play Services, il runtime di inferenza ML ufficiale di Android, per eseguire l'inferenza ML ad alte prestazioni nella tua app. Scopri di più

Accelerazione hardware con delegati LiteRT

Utilizza i delegati LiteRT distribuiti tramite Google Play Services per eseguire ML accelerato su hardware specializzato come GPU o NPU. Ciò ti consente di offrire ai tuoi utenti esperienze più fluide e a bassa latenza accedendo a funzionalità di calcolo avanzate sul dispositivo.

Forniamo supporto per i delegati GPU e collaboriamo con i partner per fornire l'accesso ai loro delegati personalizzati utilizzando Google Play Services per supportare casi d'uso avanzati. Scopri di più

Attivato da Google Play Services

Utilizza Google Play Services per accedere al runtime e ai delegati di LiteRT. In questo modo viene garantito l'utilizzo delle ultime versioni stabili riducendo al minimo l'impatto sulle dimensioni del binario dell'app. Scopri di più

Esempi di codice

Esamina gli esempi di codice Android LiteRT e testa le funzionalità di ML sul tuo dispositivo. Scopri di più

Inizia a utilizzare LiteRT

Scarica il codice di esempio e inizia a utilizzare LiteRT e Android. Scopri di più

Servizio di accelerazione

L'API Acceleration Service ti consente di scegliere in modo sicuro la configurazione di accelerazione hardware ottimale in fase di runtime senza doverti preoccupare dell'hardware e dei driver del dispositivo sottostanti. Scopri di più