इस गाइड का मकसद, आपको अपने ऐप्लिकेशन में Google के जनरेटिव आर्टिफ़िशियल इंटेलिजेंस और मशीन लर्निंग (एआई/एमएल) सलूशन इंटिग्रेट करने में मदद करना है. इसमें, आर्टिफ़िशियल इंटेलिजेंस और मशीन लर्निंग के अलग-अलग सलूशन के बारे में जानकारी दी गई है. साथ ही, यह भी बताया गया है कि अपनी ज़रूरतों के हिसाब से सबसे सही सलूशन कैसे चुना जाए. इस दस्तावेज़ का मकसद, आपकी ज़रूरतों और इस्तेमाल के उदाहरणों के आधार पर, यह तय करने में आपकी मदद करना है कि कौनसा टूल इस्तेमाल करना चाहिए और क्यों.
इस दस्तावेज़ में, सलूशन गाइड शामिल है. इससे आपको अपनी ज़रूरतों के हिसाब से सबसे सही एआई/एमएल सलूशन चुनने में मदद मिलेगी. गाइड में, आपके प्रोजेक्ट के लक्ष्यों और सीमाओं के बारे में सवालों की एक सीरीज़ दी गई है. इनके जवाब देने पर, आपको सबसे सही टूल और टेक्नोलॉजी के बारे में पता चलेगा.
यह गाइड, आपके ऐप्लिकेशन के लिए सबसे सही एआई सलूशन चुनने में आपकी मदद करती है. इसके लिए, इन बातों का ध्यान रखें: डेटा का टाइप (टेक्स्ट, इमेज, ऑडियो, वीडियो), टास्क की मुश्किल लेवल (सामान्य खास जानकारी से लेकर खास जानकारी वाले मुश्किल टास्क तक) और डेटा का साइज़ (छोटे इनपुट बनाम बड़े दस्तावेज़). इससे आपको यह तय करने में मदद मिलेगी कि अपने डिवाइस पर Gemini Nano का इस्तेमाल करना है या Firebase के क्लाउड-आधारित एआई (Gemini Flash, Gemini Pro या Imagen) का.
डिवाइस पर इन्फ़रेंस की सुविधा का फ़ायदा लेना
अपने Android ऐप्लिकेशन में एआई और एमएल की सुविधाएं जोड़ते समय, आपके पास उन्हें उपलब्ध कराने के अलग-अलग तरीके होते हैं. जैसे, डिवाइस पर या क्लाउड का इस्तेमाल करके.
Gemini Nano जैसे ऑन-डिवाइस सलूशन, बिना किसी अतिरिक्त शुल्क के नतीजे देते हैं. साथ ही, ये उपयोगकर्ताओं की निजता को बेहतर बनाते हैं और ऑफ़लाइन होने पर भी काम करते हैं. ऐसा इसलिए होता है, क्योंकि इनपुट डेटा को डिवाइस पर ही प्रोसेस किया जाता है. कुछ मामलों में, ये फ़ायदे बहुत ज़रूरी हो सकते हैं. जैसे, मैसेज की खास जानकारी देना. इसलिए, सही सलूशन चुनते समय, ऑन-डिवाइस सलूशन को प्राथमिकता दी जाती है.
Gemini Nano की मदद से, Android पर चलने वाले डिवाइस पर सीधे तौर पर इन्फ़रेंस किया जा सकता है. अगर आपको टेक्स्ट, इमेज या ऑडियो के साथ काम करना है, तो आउट-ऑफ़-द-बॉक्स सलूशन के लिए, एमएल किट के जेन एआई एपीआई का इस्तेमाल करें. एमएल किट के जेन एआई एपीआई, Gemini Nano की मदद से काम करते हैं. ये AICore को मुख्य सिस्टम सर्विस के तौर पर इस्तेमाल करते हैं. साथ ही, इन्हें डिवाइस पर किए जाने वाले खास टास्क के लिए फ़ाइन-ट्यून किया जाता है. एमएल किट के जेन एआई एपीआई, आपके ऐप्लिकेशन के लिए प्रोडक्शन के लिए सबसे सही विकल्प हैं. ऐसा इसलिए है, क्योंकि इनका इंटरफ़ेस बेहतर होता है और इन्हें स्केल किया जा सकता है. इन एपीआई की मदद से, टेक्स्ट और इमेज, दोनों के इनपुट के साथ नैचुरल लैंग्वेज में अनुरोध भेजे जा सकते हैं. इससे, इमेज को समझना, छोटे अनुवाद, गाइड के साथ खास जानकारी देना जैसे कई काम किए जा सकते हैं.
मशीन लर्निंग के पारंपरिक टास्क के लिए, आपके पास अपने हिसाब से मॉडल लागू करने की सुविधा होती है. हम आपको एमएल किट, MediaPipe, LiteRT, और Google Play पर डिलीवरी की सुविधाओं जैसे दमदार टूल उपलब्ध कराते हैं. इससे, डेवलपमेंट की प्रोसेस को आसान बनाया जा सकता है.
जिन ऐप्लिकेशन के लिए खास सलूशन की ज़रूरत होती है उनके लिए, अपने हिसाब से मॉडल का इस्तेमाल किया जा सकता है. जैसे, Gemma या कोई ऐसा मॉडल जो आपके इस्तेमाल के उदाहरण के हिसाब से बनाया गया हो . LiteRT की मदद से, अपने मॉडल को सीधे उपयोगकर्ता के डिवाइस पर चलाएं. LiteRT, ऑप्टिमाइज़ की गई परफ़ॉर्मेंस के लिए, पहले से डिज़ाइन किए गए मॉडल आर्किटेक्चर उपलब्ध कराता है.
आपके पास, ऑन-डिवाइस और क्लाउड मॉडल, दोनों का इस्तेमाल करके हाइब्रिड सलूशन बनाने का विकल्प भी होता है.
आम तौर पर, मोबाइल ऐप्लिकेशन, चैट की बातचीत या ब्लॉग लेख जैसे छोटे टेक्स्ट डेटा के लिए, लोकल मॉडल का इस्तेमाल करते हैं. हालांकि, बड़े डेटा सोर्स (जैसे, पीडीएफ़) के लिए या जब ज़्यादा जानकारी की ज़रूरत होती है, तो Gemini के ज़्यादा दमदार मॉडल वाले क्लाउड-आधारित सलूशन की ज़रूरत पड़ सकती है.
Gemini के ऐडवांस मॉडल इंटिग्रेट करना
Android डेवलपर, Firebase AI Logic SDK का इस्तेमाल करके, अपने ऐप्लिकेशन में Google के ऐडवांस जनरेटिव एआई की सुविधाएं इंटिग्रेट कर सकते हैं. इनमें, Gemini Pro, Gemini Flash, और Imagen मॉडल शामिल हैं. यह एसडीके, बड़े डेटा की ज़रूरतों के लिए डिज़ाइन किया गया है. यह, ज़्यादा क्षमताएं और अडैप्टेबिलिटी उपलब्ध कराता है. इसके लिए, यह ज़्यादा परफ़ॉर्मेंस देने वाले, मल्टीमॉडल एआई मॉडल का ऐक्सेस देता है.
Firebase AI Logic SDK की मदद से, डेवलपर Google के एआई मॉडल को क्लाइंट-साइड कॉल बहुत आसानी से कर सकते हैं. Gemini Pro और Gemini Flash जैसे ये मॉडल, क्लाउड में इन्फ़रेंस करते हैं. साथ ही, ये Android ऐप्लिकेशन को इमेज, ऑडियो, वीडियो, और टेक्स्ट जैसे कई तरह के इनपुट प्रोसेस करने की सुविधा देते हैं. Gemini Pro, मुश्किल समस्याओं को हल करने और बड़े डेटा का विश्लेषण करने में बेहतर है. वहीं, Gemini Flash सीरीज़, बेहतर स्पीड और ज़्यादातर टास्क के लिए, बड़ी कॉन्टेक्स्ट विंडो उपलब्ध कराती है.
मशीन लर्निंग के पारंपरिक तरीकों का इस्तेमाल कब करना चाहिए
जनरेटिव एआई, टेक्स्ट, इमेज, और कोड जैसे कॉन्टेंट बनाने और उसमें बदलाव करने के लिए काम का है. हालांकि, असल दुनिया की कई समस्याओं को मशीन लर्निंग (एमएल) के पारंपरिक तरीकों का इस्तेमाल करके बेहतर तरीके से हल किया जा सकता है. ये तरीके, मौजूदा डेटा में पैटर्न को समझने, उनका पता लगाने, उन्हें कैटगरी में बांटने, और अनुमान लगाने जैसे टास्क को बेहतर तरीके से करते हैं. साथ ही, ये जनरेटिव मॉडल के मुकाबले, ज़्यादा बेहतर तरीके से काम करते हैं, कम कंप्यूटेशनल लागत लेते हैं, और इन्हें आसानी से लागू किया जा सकता है.
मशीन लर्निंग के पारंपरिक फ़्रेमवर्क, ऐसे ऐप्लिकेशन के लिए दमदार, ऑप्टिमाइज़ किए गए, और ज़्यादातर मामलों में बेहतर सलूशन उपलब्ध कराते हैं जो पूरी तरह से नया आउटपुट जनरेट करने के बजाय, इनपुट का विश्लेषण करने, सुविधाओं की पहचान करने या सीखे गए पैटर्न के आधार पर अनुमान लगाने पर फ़ोकस करते हैं. Google के एमएल किट, LiteRT, और MediaPipe जैसे टूल, इन नॉन-जनरेटिव इस्तेमाल के उदाहरणों के लिए, खास तौर पर बनाई गई दमदार सुविधाएं उपलब्ध कराते हैं. खास तौर पर, मोबाइल और एज कंप्यूटिंग एनवायरमेंट में.
एमएल किट की मदद से, मशीन लर्निंग इंटिग्रेशन शुरू करना
एमएल किट, मशीन लर्निंग के सामान्य टास्क के लिए, प्रोडक्शन के लिए तैयार और मोबाइल के लिए ऑप्टिमाइज़ किए गए सलूशन उपलब्ध कराता है. इसके लिए, मशीन लर्निंग में पहले से कोई अनुभव होने की ज़रूरत नहीं है. मोबाइल के लिए यह आसान एसडीके, Google के मशीन लर्निंग के अनुभव को सीधे आपके Android और iOS ऐप्लिकेशन में लाता है. इससे, मॉडल को ट्रेनिंग देने और ऑप्टिमाइज़ करने के बजाय, सुविधाओं को डेवलप करने पर फ़ोकस किया जा सकता है. एमएल किट, बारकोड स्कैन करने, टेक्स्ट की पहचान करने (ओसीआर), चेहरे का पता लगाने, इमेज को लेबल करने, ऑब्जेक्ट का पता लगाने और उसे ट्रैक करने, भाषा की पहचान करने, और स्मार्ट जवाब जैसी सुविधाओं के लिए, पहले से बने एपीआई और इस्तेमाल के लिए तैयार मॉडल उपलब्ध कराता है.
आम तौर पर, इन मॉडल को डिवाइस पर चलाने के लिए ऑप्टिमाइज़ किया जाता है. इससे, कम इंतज़ार का समय, ऑफ़लाइन होने पर भी काम करने की सुविधा, और उपयोगकर्ताओं की निजता बेहतर होती है. ऐसा इसलिए होता है, क्योंकि डेटा अक्सर डिवाइस पर ही रहता है. अपने मोबाइल ऐप्लिकेशन में, मशीन लर्निंग की पहले से मौजूद सुविधाएं जोड़ने के लिए, एमएल किट चुनें. इसके लिए, मॉडल को ट्रेनिंग देने या जनरेटिव आउटपुट की ज़रूरत नहीं होती. यह, Google के ऑप्टिमाइज़ किए गए मॉडल का इस्तेमाल करके या TensorFlow लाइट के कस्टम मॉडल डिप्लॉय करके, ऐप्लिकेशन को "स्मार्ट" सुविधाओं के साथ बेहतर बनाने के लिए सबसे सही है.
एमएल किट की डेवलपर साइट पर, हमारी पूरी जानकारी वाली गाइड और दस्तावेज़ देखें.
LiteRT की मदद से, मशीन लर्निंग का कस्टम डिप्लॉयमेंट
ज़्यादा कंट्रोल पाने या अपने मशीन लर्निंग मॉडल डिप्लॉय करने के लिए, LiteRT और Google Play सेवाओं पर बने मशीन लर्निंग के कस्टम स्टैक का इस्तेमाल करें. यह स्टैक, मशीन लर्निंग की ज़्यादा परफ़ॉर्मेंस वाली सुविधाएं डिप्लॉय करने के लिए ज़रूरी चीज़ें उपलब्ध कराता है. LiteRT एक टूलकिट है. इसे, संसाधन की कमी वाले मोबाइल, एम्बेड किए गए, और एज डिवाइसों पर TensorFlow मॉडल को बेहतर तरीके से चलाने के लिए ऑप्टिमाइज़ किया गया है. इससे, छोटे और तेज़ मॉडल चलाए जा सकते हैं. साथ ही, ये मॉडल कम मेमोरी, पावर, और स्टोरेज का इस्तेमाल करते हैं. LiteRT रनटाइम को एज डिवाइसों पर मौजूद अलग-अलग हार्डवेयर ऐक्सलरेटर (जीपीयू, डीएसपी, एनपीयू) के लिए ऑप्टिमाइज़ किया गया है. इससे, कम इंतज़ार के समय में इन्फ़रेंस किया जा सकता है.
ट्रेन किए गए मशीन लर्निंग मॉडल (आम तौर पर, कैटगरी में बांटने, रिग्रेशन या पता लगाने के लिए) को कम कंप्यूटेशनल पावर या बैटरी लाइफ़ वाले डिवाइसों पर बेहतर तरीके से डिप्लॉय करने के लिए, LiteRT चुनें. जैसे, स्मार्टफ़ोन, आईओटी डिवाइस या माइक्रो कंट्रोलर. यह, एज पर कस्टम या स्टैंडर्ड अनुमान लगाने वाले मॉडल डिप्लॉय करने के लिए सबसे सही सलूशन है. यहां स्पीड और संसाधनों को बचाना सबसे ज़रूरी है.
LiteRT की मदद से, मशीन लर्निंग मॉडल डिप्लॉय करने के बारे में ज़्यादा जानें.
MediaPipe की मदद से, अपने ऐप्लिकेशन में रीयल-टाइम परसेप्शन की सुविधा जोड़ना
MediaPipe, ओपन-सोर्स, क्रॉस-प्लैटफ़ॉर्म, और मशीन लर्निंग के ऐसे सलूशन उपलब्ध कराता है जिन्हें लाइव और स्ट्रीमिंग मीडिया के लिए, अपनी ज़रूरत के हिसाब से बनाया जा सकता है. हाथों को ट्रैक करने, पोज़ का अनुमान लगाने, चेहरे के मेश का पता लगाने, और ऑब्जेक्ट का पता लगाने जैसे मुश्किल टास्क के लिए, ऑप्टिमाइज़ किए गए, पहले से बने टूल का फ़ायदा लें. इन सभी की मदद से, मोबाइल डिवाइसों पर भी रीयल-टाइम में बेहतर इंटरैक्शन किया जा सकता है.
MediaPipe के ग्राफ़-आधारित पाइपलाइन को अपनी ज़रूरत के हिसाब से बनाया जा सकता है. इससे, Android, iOS, वेब, डेस्कटॉप, और बैकएंड ऐप्लिकेशन के लिए सलूशन तैयार किए जा सकते हैं. जब आपके ऐप्लिकेशन को लाइव सेंसर डेटा, खास तौर पर वीडियो स्ट्रीम को तुरंत समझने और उस पर तुरंत कार्रवाई करने की ज़रूरत हो, तो MediaPipe चुनें. इसका इस्तेमाल, जेस्चर की पहचान करने, एआर इफ़ेक्ट, फ़िटनेस ट्रैकिंग या अवतार कंट्रोल जैसे इस्तेमाल के उदाहरणों के लिए किया जा सकता है. इन सभी का मकसद, इनपुट का विश्लेषण करना और उसे समझना है.
MediaPipe के सलूशन देखें और इसका इस्तेमाल करके, ऐप्लिकेशन बनाना शुरू करें.
अपने ऐप्लिकेशन को डिवाइस असिस्टेंट से इंटिग्रेट करना
एआई को इंटिग्रेट करने के पारंपरिक तरीके में, "अपने ऐप्लिकेशन में एआई की सुविधा जोड़ना" पर फ़ोकस किया जाता है. हालांकि, "अपने ऐप्लिकेशन को एआई में शामिल करना" भी मुमकिन है. सिस्टम एआई की सुविधाओं में अपने ऐप्लिकेशन के फ़ंक्शन को शामिल करके, सिस्टम-लेवल के असिस्टेंट (जैसे, Gemini) को अपने ऐप्लिकेशन की क्षमताओं को एजेंट के तौर पर खोजने और उन्हें शुरू करने की अनुमति दी जा सकती है. AppFunctions, इस इंटिग्रेशन को हासिल करने का मुख्य तरीका है. इससे, आपका ऐप्लिकेशन, Android के एआई के बड़े इकोसिस्टम में शामिल हो सकता है.
कोई तरीका चुनना
अपने Android ऐप्लिकेशन को बेहतर बनाने के लिए, एआई को शामिल करते समय, तीन मुख्य तरीकों पर विचार करना चाहिए: डिवाइस पर प्रोसेसिंग करना, क्लाउड-आधारित मॉडल का इस्तेमाल करना या सिस्टम-लेवल के एआई में अपने ऐप्लिकेशन के फ़ंक्शन को जोड़ना. एमएल किट, Gemini Nano, और LiteRT जैसे टूल, डिवाइस पर काम करने की सुविधाएं उपलब्ध कराते हैं. वहीं, Firebase AI Logic के साथ Gemini के क्लाउड एपीआई, क्लाउड-आधारित दमदार प्रोसेसिंग उपलब्ध कराते हैं. AppFunctions, तीसरा तरीका है. इससे, अपने ऐप्लिकेशन की सुविधाओं को सिस्टम के लिए एजेंट के तौर पर उपलब्ध कराकर, "अपने ऐप्लिकेशन को एआई में शामिल किया जा सकता है".
अपना तरीका चुनते समय, इन बातों का ध्यान रखें:
| फ़ैक्टर | डिवाइस पर काम करने वाले सलूशन | क्लाउड पर काम करने वाले सलूशन |
|---|---|---|
| कनेक्टिविटी और ऑफ़लाइन होने पर भी काम करने की सुविधा | ऑफ़लाइन इस्तेमाल के लिए सबसे सही; नेटवर्क कनेक्शन के बिना काम करता है. | रिमोट सर्वर से कम्यूनिकेट करने के लिए, नेटवर्क कनेक्शन की ज़रूरत होती है. |
| डेटा की निजता | संवेदनशील डेटा को डिवाइस पर ही प्रोसेस और सेव करता है. | डेटा को क्लाउड पर ट्रांसमिट किया जाता है. इसके लिए, सेवा देने वाली कंपनी की सुरक्षा पर भरोसा करना ज़रूरी है . |
| कहां दिखते हैं, कैसे इस्तेमाल किए जाते हैं | ओएस इंटिग्रेशन (AppFunctions) की मदद से, असिस्टेंट सुविधाओं को खोज सकते हैं. | आम तौर पर, खोज की सुविधा, ऐप्लिकेशन के इंटरनल यूज़र इंटरफ़ेस (यूआई) या खास एपीआई इंटिग्रेशन तक सीमित होती है. |
| मॉडल की क्षमताएं | कम इंतज़ार के समय और कम इंटेंसिव टास्क के लिए ऑप्टिमाइज़ किया गया है. | ज़्यादा मुश्किल लेवल और बड़े इनपुट को हैंडल करने में सक्षम दमदार मॉडल. |
| सदस्यता शुल्क और इसके फ़ायदों का ध्यान रखते हुए नए ऐप्लिकेशन पर स्विच करना | हर इस्तेमाल के लिए सीधे तौर पर कोई शुल्क नहीं लगता. इसमें, डिवाइस के मौजूदा हार्डवेयर का इस्तेमाल किया जाता है. | आम तौर पर, इसमें इस्तेमाल के हिसाब से कीमत तय की जाती है या लगातार सदस्यता शुल्क लगता है. |
| डिवाइस के संसाधन | लोकल स्टोरेज, रैम, और बैटरी लाइफ़ का इस्तेमाल करता है. | लोकल पर कम असर पड़ता है. ज़्यादातर काम सर्वर पर किया जाता है. |
| फ़ाइन-ट्यूनिंग | कम फ़्लेक्सिबिलिटी; लोकल हार्डवेयर क्षमताओं से सीमित. | बड़े पैमाने पर बदलाव करने और बड़े पैमाने पर ट्यूनिंग के लिए ज़्यादा फ़्लेक्सिबिलिटी. |
| क्रॉस-प्लैटफ़ॉर्म पर एक जैसा अनुभव | ओएस और हार्डवेयर के सपोर्ट के हिसाब से, उपलब्धता अलग-अलग हो सकती है. | इंटरनेट ऐक्सेस वाले किसी भी प्लैटफ़ॉर्म पर एक जैसा अनुभव. |
अपने इस्तेमाल के उदाहरण की ज़रूरतों और उपलब्ध विकल्पों पर ध्यान से विचार करके, अपने Android ऐप्लिकेशन को बेहतर बनाने और अपने उपयोगकर्ताओं को बेहतर और मनमुताबिक अनुभव देने के लिए, एआई/एमएल का सबसे सही सलूशन चुना जा सकता है.
एआई/एमएल सलूशन के बारे में जानकारी देने वाली गाइड
इस सलूशन गाइड की मदद से, अपने Android प्रोजेक्ट में एआई/एमएल टेक्नोलॉजी इंटिग्रेट करने के लिए, डेवलपर के सही टूल की पहचान की जा सकती है.
एआई की सुविधा का मुख्य लक्ष्य क्या है?
- A) नया कॉन्टेंट (टेक्स्ट, इमेज के ब्यौरे) जनरेट करना या टेक्स्ट की सामान्य प्रोसेसिंग करना (खास जानकारी देना, प्रूफ़रीडिंग करना या टेक्स्ट को फिर से लिखना)? → जनरेटिव एआई पर जाएं
- B) अनुमान लगाने, कैटगरी में बांटने, पता लगाने, पैटर्न को समझने या रीयल-टाइम स्ट्रीम (जैसे, वीडियो/ऑडियो) को प्रोसेस करने के लिए, मौजूदा डेटा/इनपुट का विश्लेषण करना? → मशीन लर्निंग और परसेप्शन के पारंपरिक तरीके पर जाएं
- C) सिस्टम एआई की सुविधाओं के साथ इंटिग्रेट करने के लिए, अपने ऐप्लिकेशन के फ़ंक्शन को बेहतर बनाना (अपने ऐप्लिकेशन को एआई में शामिल करना)? → अपने ऐप्लिकेशन को एआई में शामिल करना पर जाएं
मशीन लर्निंग और परसेप्शन के पारंपरिक तरीके
आपको पूरी तरह से नया आउटपुट जनरेट करने के बजाय, इनपुट का विश्लेषण करना, सुविधाओं की पहचान करना या सीखे गए पैटर्न के आधार पर अनुमान लगाना है.
आपको कौनसा टास्क करना है?
- A) क्या आपको मशीन लर्निंग की पहले से बनी, सामान्य मोबाइल सुविधाओं को तुरंत इंटिग्रेट करना है?
(जैसे, बारकोड स्कैन करना, टेक्स्ट की पहचान करना (ओसीआर), चेहरे का पता लगाना, इमेज को लेबल करना, ऑब्जेक्ट का पता लगाना और उसे ट्रैक करना, भाषा की पहचान करना, स्मार्ट जवाब की बुनियादी सुविधा)
- → इस्तेमाल करें: एमएल किट (पारंपरिक एपीआई)
- वजह: मशीन लर्निंग के पारंपरिक मोबाइल टास्क के लिए, सबसे आसान इंटिग्रेशन. इसे अक्सर डिवाइस पर इस्तेमाल करने के लिए ऑप्टिमाइज़ किया जाता है (कम इंतज़ार का समय, ऑफ़लाइन होने पर भी काम करने की सुविधा, निजता).
- B) क्या आपको परसेप्शन टास्क के लिए, रीयल-टाइम स्ट्रीमिंग डेटा (जैसे, वीडियो या ऑडियो) प्रोसेस करना है? (जैसे, हाथों को ट्रैक करना, पोज़ का अनुमान लगाना, चेहरे का मेश, वीडियो में रीयल-टाइम में ऑब्जेक्ट का पता लगाना और सेगमेंटेशन)
- → इस्तेमाल करें: MediaPipe
- वजह: यह फ़्रेमवर्क, अलग-अलग प्लैटफ़ॉर्म पर, रीयल-टाइम परसेप्शन पाइपलाइन की बेहतर परफ़ॉर्मेंस के लिए बनाया गया है.
- C) क्या आपको डिवाइस पर, अपने हिसाब से ट्रेन किए गए मशीन लर्निंग मॉडल (जैसे, कैटगरी में बांटने, रिग्रेशन, पता लगाने के लिए) को बेहतर तरीके से चलाना है? साथ ही, परफ़ॉर्मेंस और कम संसाधनों के इस्तेमाल को प्राथमिकता देनी है?
- → इस्तेमाल करें: LiteRT (TensorFlow लाइट रनटाइम)
- वजह: मोबाइल और एज डिवाइसों पर, कस्टम मॉडल को बेहतर तरीके से डिप्लॉय करने के लिए ऑप्टिमाइज़ किया गया रनटाइम (छोटा साइज़, तेज़ इन्फ़रेंस, हार्डवेयर ऐक्सलरेशन).
- D) क्या आपको किसी खास टास्क के लिए, मशीन लर्निंग का अपना कस्टम मॉडल ट्रेन करना है ?
- → इस्तेमाल करें: LiteRT (TensorFlow लाइट रनटाइम) + कस्टम मॉडल ट्रेनिंग
- वजह: मोबाइल और एज डिवाइसों के लिए ऑप्टिमाइज़ किए गए कस्टम मॉडल को ट्रेन करने और डिप्लॉय करने के लिए टूल उपलब्ध कराता है.
- E) क्या आपको कॉन्टेंट को बेहतर तरीके से कैटगरी में बांटना है, सेंटीमेंट का विश्लेषण करना है या कई भाषाओं का अनुवाद करना है?
- देखें कि मशीन लर्निंग के पारंपरिक मॉडल (जिन्हें LiteRT या क्लाउड का इस्तेमाल करके डिप्लॉय किया जा सकता है) काम के हैं या नहीं. अगर एनएलयू के लिए, जनरेटिव मॉडल की ज़रूरत है, तो 'शुरू करें' पर वापस जाएं और विकल्प A चुनें. क्लाउड-आधारित कैटगरी में बांटने, सेंटीमेंट या अनुवाद के लिए:
- → इस्तेमाल करें: क्लाउड-आधारित सलूशन (जैसे, Google Cloud Natural Language API, Google Cloud Translation API. इन्हें, कस्टम बैकएंड या Vertex AI का इस्तेमाल करके ऐक्सेस किया जा सकता है). (अगर ऑफ़लाइन होने पर भी काम करने की सुविधा या निजता ज़रूरी है, तो डिवाइस पर काम करने वाले विकल्पों को प्राथमिकता दें).
- वजह: क्लाउड सलूशन, दमदार मॉडल और कई भाषाओं के लिए सपोर्ट उपलब्ध कराते हैं. हालांकि, इसके लिए कनेक्टिविटी की ज़रूरत होती है और इसके लिए शुल्क लग सकता है.
जनरेटिव एआई
आपको नया कॉन्टेंट बनाना है, खास जानकारी देनी है, फिर से लिखना है या मुश्किल समझ या इंटरैक्शन टास्क करने हैं.
क्या आपको एआई को ऑफ़लाइन इस्तेमाल करना है, डेटा की निजता को ज़्यादा से ज़्यादा सुरक्षित रखना है (उपयोगकर्ता का डेटा डिवाइस पर ही रखना है) या क्लाउड इन्फ़रेंस की लागत से बचना है?
- A) हां, ऑफ़लाइन होने पर भी काम करने की सुविधा, ज़्यादा निजता या क्लाउड की लागत से बचना ज़रूरी है.
- → डिवाइस पर काम करने वाले जनरेटिव एआई पर जाएं
- B) नहीं, कनेक्टिविटी उपलब्ध है और स्वीकार की जा सकती है, क्लाउड की क्षमताएं और
स्केलेबिलिटी ज़्यादा ज़रूरी हैं या कुछ सुविधाओं के लिए क्लाउड की ज़रूरत है.
- → क्लाउड पर काम करने वाले जनरेटिव एआई पर जाएं
डिवाइस पर काम करने वाला जनरेटिव एआई (Gemini Nano का इस्तेमाल करके)
चेतावनी: इसके लिए, Android के साथ काम करने वाले डिवाइसों की ज़रूरत होती है. iOS के लिए सीमित सपोर्ट उपलब्ध है. मॉडल क्लाउड पर काम करने वाले मॉडल के मुकाबले कम दमदार होते हैं.
एमएल किट के Prompt API की मदद से, नैचुरल लैंग्वेज में अनुरोध भेजे जा सकते हैं. इसके लिए, सिर्फ़ टेक्स्ट या टेक्स्ट और इमेज, दोनों के इनपुट का इस्तेमाल किया जा सकता है. इसका इस्तेमाल, इमेज को समझना, छोटे अनुवाद, और गाइड के साथ खास जानकारी देना जैसे कई कामों के लिए किया जा सकता है. अगर आपके इस्तेमाल के उदाहरण, इन टोकन की सीमाओं के हिसाब से हैं, तो डिवाइस पर काम करने वाले जनरेटिव एआई के लिए, एमएल किट के जेन एआई एपीआई सबसे सही विकल्प हैं. एमएल किट, खास जानकारी देने और स्मार्ट जवाब जैसे सामान्य टास्क के लिए, स्ट्रीमलाइन किए गए एपीआई भी उपलब्ध कराता है.
- → इस्तेमाल करें: एमएल किट के जेन एआई एपीआई (Gemini Nano की मदद से काम करते हैं)
- वजह: नैचुरल लैंग्वेज प्रॉम्प्ट का इस्तेमाल करके, डिवाइस पर जनरेटिव एआई के टास्क को इंटिग्रेट करने का सबसे आसान तरीका. डिवाइस पर काम करने वाले सलूशन में सबसे ज़्यादा प्राथमिकता.
क्लाउड पर काम करने वाला जनरेटिव एआई
इसमें ज़्यादा दमदार मॉडल का इस्तेमाल किया जाता है. इसके लिए, कनेक्टिविटी की ज़रूरत होती है. आम तौर पर, इसमें इन्फ़रेंस की लागत लगती है. साथ ही, यह ज़्यादा डिवाइसों पर उपलब्ध होता है और क्रॉस-प्लैटफ़ॉर्म (Android और iOS) पर एक जैसा अनुभव देता है.
आपकी प्राथमिकता क्या है: Firebase में आसानी से इंटिग्रेट करना या ज़्यादा फ़्लेक्सिबिलिटी/कंट्रोल?
- A) क्या आपको आसानी से इंटिग्रेट करना है, मैनेज किए गए एपीआई का अनुभव चाहिए और क्या आपने पहले से Firebase का इस्तेमाल किया है?
- → इस्तेमाल करें: Firebase AI Logic SDK → Firebase AI Logic पर जाएं
- B) क्या आपको ज़्यादा फ़्लेक्सिबिलिटी, मॉडल की सबसे बड़ी रेंज (तीसरे पक्ष/कस्टम मॉडल भी शामिल हैं) का ऐक्सेस, ऐडवांस फ़ाइन-ट्यूनिंग चाहिए और क्या आपको अपना बैकएंड इंटिग्रेशन (ज़्यादा मुश्किल) मैनेज करना है?
- → इस्तेमाल करें: Google Cloud Platform का इस्तेमाल करके, कस्टम क्लाउड बैकएंड के साथ Gemini API
- वजह: इसमें सबसे ज़्यादा कंट्रोल, मॉडल का सबसे ज़्यादा ऐक्सेस और कस्टम ट्रेनिंग के विकल्प मिलते हैं. हालांकि, इसके लिए बैकएंड डेवलपमेंट में ज़्यादा मेहनत करनी पड़ती है. यह मुश्किल, बड़े पैमाने पर या अपनी ज़रूरत के हिसाब से बनाए गए टास्क के लिए सही है.
(आपने Firebase AI Logic SDK चुना है) आपको किस तरह का जनरेटिव टास्क और परफ़ॉर्मेंस प्रोफ़ाइल चाहिए?
- A) क्या आपको परफ़ॉर्मेंस और लागत के बीच बैलेंस चाहिए? यह सामान्य टेक्स्ट जनरेशन, खास जानकारी देने या चैट ऐप्लिकेशन के लिए सही है. साथ ही, इसमें स्पीड ज़रूरी है?
- → इस्तेमाल करें: Gemini Flash के साथ Firebase AI Logic SDK
- वजह: Vertex AI के मैनेज किए गए एनवायरमेंट में, स्पीड और बेहतर तरीके से काम करने के लिए ऑप्टिमाइज़ किया गया है.
- B) क्या आपको मुश्किल टेक्स्ट जनरेशन, रीज़निंग, एनएलयू या निर्देशों का पालन करने के लिए, बेहतर क्वालिटी और क्षमता चाहिए?
- → इस्तेमाल करें: Gemini Pro के साथ Firebase AI Logic SDK
- वजह: मुश्किल टास्क के लिए, टेक्स्ट का ज़्यादा दमदार मॉडल. इसे Firebase के ज़रिए ऐक्सेस किया जाता है.
- C) क्या आपको टेक्स्ट प्रॉम्प्ट के आधार पर, इमेज जनरेशन या इमेज को बेहतर तरीके से समझना या उसमें बदलाव करना है?
- → इस्तेमाल करें: Imagen 3 के साथ Firebase AI Logic SDK
- वजह: मैनेज किए गए Firebase एनवायरमेंट का इस्तेमाल करके, इमेज जनरेशन का सबसे नया मॉडल ऐक्सेस किया जा सकता है.
AppFunctions
आपको सिस्टम एआई की सुविधाओं के साथ इंटिग्रेट करने के लिए, अपने ऐप्लिकेशन के फ़ंक्शन को बेहतर बनाना है (अपने ऐप्लिकेशन को एआई में शामिल करना है).
- → इस्तेमाल करें: AppFunctions
- वजह: सिस्टम एआई की सुविधाओं, जैसे कि Assistant को अपने ऐप्लिकेशन की क्षमताओं को खोजने और उन्हें शुरू करने की अनुमति देता है.