जिन ऐप्लिकेशन में रीयल-टाइम और कम समय में आवाज़ से जुड़ी सहायता की ज़रूरत होती है उनके लिए Gemini Live API सबसे सही है. जैसे, चैटबॉट या एजेंट से बातचीत करने वाले ऐप्लिकेशन. यह Gemini मॉडल के लिए, इनपुट और आउटपुट, दोनों को स्ट्रीम करने का सबसे सही तरीका है. Firebase AI Logic का इस्तेमाल करके, Gemini Live API को सीधे अपने Android ऐप्लिकेशन से कॉल किया जा सकता है. इसके लिए, बैकएंड इंटिग्रेशन की ज़रूरत नहीं होती. इस गाइड में, Firebase AI Logic के साथ अपने Android ऐप्लिकेशन में Gemini Live API इस्तेमाल करने का तरीका बताया गया है.
शुरू करें
शुरू करने से पहले, पक्का करें कि आपका ऐप्लिकेशन एपीआई लेवल 23 या उसके बाद के लेवल को टारगेट करता हो.
अगर आपने पहले से ही Firebase प्रोजेक्ट सेट अप नहीं किया है, तो Firebase प्रोजेक्ट सेट अप करें और अपने ऐप्लिकेशन को Firebase से कनेक्ट करें. ज़्यादा जानकारी के लिए, Firebase के एआई लॉजिक से जुड़े दस्तावेज़ देखें.
अपना Android प्रोजेक्ट सेट अप करना
अपने ऐप्लिकेशन-लेवल की build.gradle.kts या build.gradle फ़ाइल में, Firebase AI Logic लाइब्रेरी की डिपेंडेंसी जोड़ें. लाइब्रेरी के वर्शन मैनेज करने के लिए, Firebase Android BoM का इस्तेमाल करें.
dependencies {
// Import the Firebase BoM
implementation(platform("com.google.firebase:firebase-bom:34.11.0"))
// Add the dependency for the Firebase AI Logic library
// When using the BoM, you don't specify versions in Firebase library dependencies
implementation("com.google.firebase:firebase-ai")
}
डिपेंडेंसी जोड़ने के बाद, अपने Android प्रोजेक्ट को Gradle के साथ सिंक करें.
Firebase AI Logic को इंटिग्रेट करना और जनरेटिव मॉडल को शुरू करना
अपने ऐप्लिकेशन की AndroidManifest.xml फ़ाइल में, RECORD_AUDIO अनुमति जोड़ें:
<uses-permission android:name="android.permission.RECORD_AUDIO" />
Gemini Developer API की बैकएंड सेवा शुरू करें और LiveModel को ऐक्सेस करें.
ऐसे मॉडल का इस्तेमाल करें जो Live API के साथ काम करता हो. जैसे, gemini-2.5-flash-native-audio-preview-12-2025.
उपलब्ध मॉडल के बारे में जानने के लिए, Firebase का दस्तावेज़ देखें.
आवाज़ तय करने के लिए, मॉडल कॉन्फ़िगरेशन के हिस्से के तौर पर, speechConfig ऑब्जेक्ट में आवाज़ का नाम सेट करें. अगर आपने कोई आवाज़ नहीं चुनी है, तो डिफ़ॉल्ट रूप से Puck का इस्तेमाल किया जाएगा.
Kotlin
// Initialize the `LiveModel` val model = Firebase.ai(backend = GenerativeBackend.googleAI()).liveModel( modelName = "gemini-2.5-flash-native-audio-preview-12-2025", generationConfig = liveGenerationConfig { responseModality = ResponseModality.AUDIO speechConfig = SpeechConfig(voice = Voice("FENRIR")) } )
Java
// Initialize the `LiveModel`
LiveGenerativeModel model = FirebaseAI
.getInstance(GenerativeBackend.googleAI())
.liveModel(
"gemini-2.5-flash-native-audio-preview-12-2025",
new LiveGenerationConfig.Builder()
.setResponseModality(ResponseModality.AUDIO)
.setSpeechConfig(new SpeechConfig(new Voice("FENRIR"))
).build(),
null,
null
);
सिस्टम के निर्देश सेट करके, मॉडल के लिए कोई पर्सोना या भूमिका तय की जा सकती है. हालांकि, ऐसा करना ज़रूरी नहीं है:
Kotlin
val systemInstruction = content { text("You are a helpful assistant, you main role is [...]") } val model = Firebase.ai(backend = GenerativeBackend.googleAI()).liveModel( modelName = "gemini-2.5-flash-native-audio-preview-12-2025", generationConfig = liveGenerationConfig { responseModality = ResponseModality.AUDIO speechConfig = SpeechConfig(voice = Voice("FENRIR")) }, systemInstruction = systemInstruction, )
Java
Content systemInstruction = new Content.Builder()
.addText("You are a helpful assistant, you main role is [...]")
.build();
LiveGenerativeModel model = FirebaseAI
.getInstance(GenerativeBackend.googleAI())
.liveModel(
"gemini-2.5-flash-native-audio-preview-12-2025",
new LiveGenerationConfig.Builder()
.setResponseModality(ResponseModality.AUDIO)
.setSpeechConfig(new SpeechConfig(new Voice("FENRIR"))
).build(),
tools, // null if you don't want to use function calling
systemInstruction
);
सिस्टम के निर्देशों का इस्तेमाल करके, मॉडल के साथ बातचीत को और भी बेहतर बनाया जा सकता है. इससे आपके ऐप्लिकेशन के हिसाब से कॉन्टेक्स्ट दिया जा सकता है. उदाहरण के लिए, ऐप्लिकेशन में उपयोगकर्ता की गतिविधि का इतिहास.
Live API सेशन शुरू करना
LiveModel इंस्टेंस बनाने के बाद, model.connect() को कॉल करके LiveSession ऑब्जेक्ट बनाएं. साथ ही, कम समय में स्ट्रीम होने वाले मॉडल के साथ लगातार कनेक्शन बनाए रखें. LiveSession की मदद से, मॉडल के साथ इंटरैक्ट किया जा सकता है. इसके लिए, आवाज़ से बातचीत करने की सुविधा को शुरू और बंद किया जा सकता है. साथ ही, टेक्स्ट भेजा और पाया जा सकता है.
इसके बाद, मॉडल के साथ बातचीत शुरू करने के लिए, startAudioConversation() को कॉल किया जा सकता है:
Kotlin
val session = model.connect() session.startAudioConversation()
Java
LiveModelFutures model = LiveModelFutures.from(liveModel);
ListenableFuture<LiveSession> sessionFuture = model.connect();
Futures.addCallback(sessionFuture, new FutureCallback<LiveSession>() {
@Override
public void onSuccess(LiveSession ses) {
LiveSessionFutures session = LiveSessionFutures.from(ses);
session.startAudioConversation();
}
@Override
public void onFailure(Throwable t) {
// Handle exceptions
}
}, executor);
मॉडल के साथ बातचीत करते समय ध्यान रखें कि यह बीच में होने वाली रुकावटों को हैंडल नहीं करता है. साथ ही, Live API दोनों दिशाओं में काम करता है. इसलिए, कॉन्टेंट भेजने और पाने के लिए एक ही कनेक्शन का इस्तेमाल किया जा सकता है.
Gemini Live API का इस्तेमाल करके, अलग-अलग इनपुट मोड से ऑडियो जनरेट किया जा सकता है:
- टेक्स्ट इनपुट भेजें.
- वीडियो इनपुट भेजना (Firebase Quickstart ऐप्लिकेशन देखें)
फ़ंक्शन कॉलिंग: Gemini Live API को अपने ऐप्लिकेशन से कनेक्ट करें
इसके अलावा, फ़ंक्शन कॉलिंग का इस्तेमाल करके, मॉडल को सीधे तौर पर अपने ऐप्लिकेशन के लॉजिक के साथ इंटरैक्ट करने की सुविधा भी चालू की जा सकती है.
फ़ंक्शन कॉलिंग (या टूल कॉलिंग), जनरेटिव एआई को लागू करने की एक सुविधा है. इसकी मदद से मॉडल, कार्रवाइयां करने के लिए अपने-आप फ़ंक्शन कॉल कर सकता है. अगर फ़ंक्शन का कोई आउटपुट है, तो मॉडल उसे अपने कॉन्टेक्स्ट में जोड़ता है और इसका इस्तेमाल बाद के जनरेशन के लिए करता है.
अपने ऐप्लिकेशन में फ़ंक्शन कॉल करने की सुविधा लागू करने के लिए, सबसे पहले उस हर फ़ंक्शन के लिए FunctionDeclaration ऑब्जेक्ट बनाएं जिसे आपको मॉडल के लिए उपलब्ध कराना है.
उदाहरण के लिए, Gemini को addList फ़ंक्शन के बारे में जानकारी देने के लिए, सबसे पहले FunctionDeclaration वैरिएबल बनाएं. इस वैरिएबल में फ़ंक्शन का नाम और उसके पैरामीटर के बारे में अंग्रेज़ी में खास जानकारी दें. यह फ़ंक्शन, स्ट्रिंग की सूची में स्ट्रिंग जोड़ता है:
Kotlin
val itemList = mutableListOf<String>() fun addList(item: String) { itemList.add(item) } val addListFunctionDeclaration = FunctionDeclaration( name = "addList", description = "Function adding an item the list", parameters = mapOf( "item" to Schema.string("A short string describing the item to add to the list") ) )
Java
HashMap<String, Schema> addListParams = new HashMap<String, Schema>(1);
addListParams.put("item", Schema.str("A short string describing the item to add to the list"));
FunctionDeclaration addListFunctionDeclaration = new FunctionDeclaration(
"addList",
"Function adding an item the list",
addListParams,
Collections.emptyList()
);
इसके बाद, मॉडल को इंस्टैंटिएट करते समय, इस FunctionDeclaration को Tool के तौर पर पास करें:
Kotlin
val addListTool = Tool.functionDeclarations(listOf(addListFunctionDeclaration)) val model = Firebase.ai(backend = GenerativeBackend.googleAI()).liveModel( modelName = "gemini-2.5-flash-native-audio-preview-12-2025", generationConfig = liveGenerationConfig { responseModality = ResponseModality.AUDIO speechConfig = SpeechConfig(voice = Voice("FENRIR")) }, systemInstruction = systemInstruction, tools = listOf(addListTool) )
Java
LiveGenerativeModel model = FirebaseAI.getInstance(
GenerativeBackend.googleAI()).liveModel(
"gemini-2.5-flash-native-audio-preview-12-2025",
new LiveGenerationConfig.Builder()
.setResponseModalities(ResponseModality.AUDIO)
.setSpeechConfig(new SpeechConfig(new Voice("FENRIR")))
.build(),
List.of(Tool.functionDeclarations(List.of(addListFunctionDeclaration))),
null,
systemInstruction
);
आखिर में, एक हैंडलर फ़ंक्शन लागू करें, ताकि मॉडल के टूल कॉल को हैंडल किया जा सके और उसे वापस रिस्पॉन्स दिया जा सके. startAudioConversation को कॉल करते समय, LiveSession को दिया गया यह हैंडलर फ़ंक्शन, FunctionCallPart पैरामीटर लेता है और FunctionResponsePart दिखाता है:
Kotlin
session.startAudioConversation(::functionCallHandler) // ... fun functionCallHandler(functionCall: FunctionCallPart): FunctionResponsePart { return when (functionCall.name) { "addList" -> { // Extract function parameter from functionCallPart val itemName = functionCall.args["item"]!!.jsonPrimitive.content // Call function with parameter addList(itemName) // Confirm the function call to the model val response = JsonObject( mapOf( "success" to JsonPrimitive(true), "message" to JsonPrimitive("Item $itemName added to the todo list") ) ) FunctionResponsePart(functionCall.name, response) } else -> { val response = JsonObject( mapOf( "error" to JsonPrimitive("Unknown function: ${functionCall.name}") ) ) FunctionResponsePart(functionCall.name, response) } } }
Java
Futures.addCallback(sessionFuture, new FutureCallback<LiveSessionFutures>() {
@RequiresPermission(Manifest.permission.RECORD_AUDIO)
@Override
@OptIn(markerClass = PublicPreviewAPI.class)
public void onSuccess(LiveSessionFutures ses) {
ses.startAudioConversation(::handleFunctionCallFuture);
}
@Override
public void onFailure(Throwable t) {
// Handle exceptions
}
}, executor);
// ...
ListenableFuture<JsonObject> handleFunctionCallFuture = Futures.transform(response, result -> {
for (FunctionCallPart functionCall : result.getFunctionCalls()) {
if (functionCall.getName().equals("addList")) {
Map<String, JsonElement> args = functionCall.getArgs();
String item =
JsonElementKt.getContentOrNull(
JsonElementKt.getJsonPrimitive(
locationJsonObject.get("item")));
return addList(item);
}
}
return null;
}, Executors.newSingleThreadExecutor());
अगले चरण
- Android AI catalog sample app में, Gemini Live API को आज़माएं.
- Firebase AI Logic के दस्तावेज़ में, Gemini Live API के बारे में ज़्यादा पढ़ें.
- उपलब्ध Gemini मॉडल के बारे में ज़्यादा जानें.
- फ़ंक्शन कॉलिंग के बारे में ज़्यादा जानें.
- प्रॉम्प्ट डिज़ाइन करने की रणनीतियों के बारे में जानें.