این راهنما به شما کمک میکند تا راهحلهای هوش مصنوعی مولد و یادگیری ماشینی (AI/ML) گوگل را در برنامههای خود ادغام کنید. این راهنما به شما کمک میکند تا در میان راهحلهای مختلف هوش مصنوعی و یادگیری ماشینی موجود، پیمایش کنید و راهحلی را انتخاب کنید که به بهترین وجه با نیازهای شما مطابقت داشته باشد. هدف این سند، کمک به شما در تعیین اینکه از کدام ابزار استفاده کنید و چرا، با تمرکز بر نیازها و موارد استفاده شماست.
برای کمک به شما در انتخاب مناسبترین راهکار هوش مصنوعی/یادگیری ماشین برای نیازهای خاص شما، این سند شامل یک راهنمای راهکار است . این راهنما با پاسخ به مجموعهای از سؤالات در مورد اهداف و محدودیتهای پروژه شما، شما را به سمت مناسبترین ابزارها و فناوریها هدایت میکند.
این راهنما به شما کمک میکند تا بهترین راهحل هوش مصنوعی را برای برنامه خود انتخاب کنید. این عوامل را در نظر بگیرید: نوع داده (متن، تصاویر، صدا، ویدیو)، پیچیدگی کار (خلاصهسازی ساده برای کارهای پیچیدهای که نیاز به دانش تخصصی دارند) و اندازه داده (ورودیهای کوتاه در مقابل اسناد بزرگ). این به شما کمک میکند تا بین استفاده از Gemini Nano در دستگاه خود یا هوش مصنوعی مبتنی بر ابر Firebase (Gemini Flash، Gemini Pro یا Imagen) تصمیم بگیرید.
قدرت استنتاج روی دستگاه را مهار کنید
وقتی ویژگیهای هوش مصنوعی و یادگیری ماشین را به برنامه اندروید خود اضافه میکنید، میتوانید روشهای مختلفی را برای ارائه آنها انتخاب کنید - یا روی دستگاه یا با استفاده از فضای ابری.
راهکارهای روی دستگاه مانند Gemini Nano نتایج را بدون هزینه اضافی ارائه میدهند، حریم خصوصی کاربر را بهبود میبخشند و به دلیل پردازش دادههای ورودی به صورت محلی، عملکرد آفلاین قابل اعتمادی را فراهم میکنند. این مزایا میتوانند برای موارد استفاده خاص، مانند خلاصهسازی پیام، حیاتی باشند و در انتخاب راهکارهای مناسب، اولویت را به استفاده روی دستگاه میدهند.
Gemini Nano به شما امکان میدهد استنتاج را مستقیماً روی یک دستگاه مبتنی بر اندروید اجرا کنید. اگر با متن، تصاویر یا صدا کار میکنید، برای راهحلهای آماده، با APIهای GenAI کیت ML شروع کنید. APIهای GenAI کیت ML توسط Gemini Nano پشتیبانی میشوند و از AICore به عنوان سرویس سیستم زیربنایی استفاده میکنند و برای وظایف خاص روی دستگاه تنظیم شدهاند. APIهای GenAI کیت ML به دلیل رابط سطح بالاتر و مقیاسپذیری، مسیری ایدهآل برای تولید برنامههای شما هستند. این APIها به شما امکان میدهند درخواستهای زبان طبیعی را با ورودیهای متن و تصویر ارسال کنید و موارد استفاده متنوعی مانند درک تصویر، ترجمههای کوتاه، خلاصهسازیهای هدایتشده و موارد دیگر را امکانپذیر میکنند.
برای وظایف سنتی یادگیری ماشین، شما انعطافپذیری لازم برای پیادهسازی مدلهای سفارشی خود را دارید. ما ابزارهای قدرتمندی مانند ML Kit ، MediaPipe ، LiteRT و ویژگیهای تحویل Google Play را برای سادهسازی فرآیند توسعه شما ارائه میدهیم.
برای کاربردهایی که به راهحلهای بسیار تخصصی نیاز دارند، میتوانید از مدل سفارشی خودتان، مانند Gemma یا مدل دیگری که متناسب با مورد استفاده خاص شما طراحی شده است، استفاده کنید. مدل خود را مستقیماً روی دستگاه کاربر با LiteRT اجرا کنید، که معماریهای مدل از پیش طراحی شده را برای عملکرد بهینه ارائه میدهد.
همچنین میتوانید با استفاده از مدلهای روی دستگاه و ابری، ساخت یک راهکار ترکیبی را در نظر بگیرید.
برنامههای تلفن همراه معمولاً از مدلهای محلی برای دادههای متنی کوچک، مانند مکالمات چت یا مقالات وبلاگ، استفاده میکنند. با این حال، برای منابع داده بزرگتر (مانند فایلهای PDF) یا زمانی که دانش بیشتری مورد نیاز است، ممکن است یک راهحل مبتنی بر ابر با مدلهای قدرتمندتر Gemini ضروری باشد.
ادغام مدلهای پیشرفته Gemini
توسعهدهندگان اندروید میتوانند قابلیتهای پیشرفته هوش مصنوعی مولد گوگل، از جمله مدلهای قدرتمند Gemini Pro، Gemini Flash و Imagen را با استفاده از Firebase AI Logic SDK در برنامههای خود ادغام کنند. این SDK برای نیازهای دادههای بزرگتر طراحی شده است و با فراهم کردن دسترسی به این مدلهای هوش مصنوعی چندوجهی و با عملکرد بالا، قابلیتها و سازگاری گستردهای را ارائه میدهد.
با استفاده از کیت توسعه نرمافزاری Firebase AI Logic، توسعهدهندگان میتوانند با کمترین تلاش، فراخوانیهای سمت کلاینت را به مدلهای هوش مصنوعی گوگل انجام دهند. این مدلها، مانند Gemini Pro و Gemini Flash، استنتاج را در فضای ابری اجرا میکنند و به برنامههای اندروید این امکان را میدهند که انواع ورودیها از جمله تصویر، صدا، ویدیو و متن را پردازش کنند. Gemini Pro در استدلال در مورد مسائل پیچیده و تجزیه و تحلیل دادههای گسترده عالی عمل میکند، در حالی که سری Gemini Flash سرعت برتر و یک پنجره زمینه به اندازه کافی بزرگ برای اکثر وظایف ارائه میدهد.
چه زمانی از یادگیری ماشین سنتی استفاده کنیم
اگرچه هوش مصنوعی مولد برای ایجاد و ویرایش محتوایی مانند متن، تصاویر و کد مفید است، بسیاری از مسائل دنیای واقعی با استفاده از تکنیکهای سنتی یادگیری ماشین (ML) بهتر حل میشوند. این روشهای تثبیتشده در وظایفی شامل پیشبینی، طبقهبندی، تشخیص و درک الگوهای موجود در دادههای موجود، اغلب با کارایی بیشتر، هزینه محاسباتی کمتر و پیادهسازی سادهتر نسبت به مدلهای مولد، برتری دارند.
چارچوبهای سنتی یادگیری ماشین، راهحلهای قوی، بهینه و اغلب کاربردیتری را برای برنامههایی ارائه میدهند که بر تجزیه و تحلیل ورودی، شناسایی ویژگیها یا پیشبینی بر اساس الگوهای آموختهشده تمرکز دارند - به جای تولید خروجی کاملاً جدید. ابزارهایی مانند کیت یادگیری ماشین گوگل، LiteRT و MediaPipe قابلیتهای قدرتمندی را برای این موارد استفاده غیرتولیدی، بهویژه در محیطهای محاسبات موبایل و لبه، ارائه میدهند.
ادغام یادگیری ماشین خود را با ML Kit شروع کنید
کیت یادگیری ماشین (ML Kit) راهکارهای آماده برای تولید و بهینهسازی شده برای موبایل را برای وظایف رایج یادگیری ماشین ارائه میدهد که نیازی به تخصص قبلی در زمینه یادگیری ماشین ندارد. این SDK موبایل با کاربرد آسان، تخصص یادگیری ماشین گوگل را مستقیماً به برنامههای اندروید و iOS شما میآورد و به شما این امکان را میدهد که به جای آموزش و بهینهسازی مدل، بر توسعه ویژگیها تمرکز کنید. کیت یادگیری ماشین، APIهای از پیش ساخته شده و مدلهای آماده برای استفاده را برای ویژگیهایی مانند اسکن بارکد، تشخیص متن (OCR)، تشخیص چهره، برچسبگذاری تصویر، تشخیص و ردیابی اشیاء، شناسایی زبان و پاسخ هوشمند ارائه میدهد.
این مدلها معمولاً برای اجرا روی دستگاه بهینه شدهاند، که تأخیر کم، عملکرد آفلاین و افزایش حریم خصوصی کاربر را تضمین میکند زیرا دادهها اغلب روی دستگاه باقی میمانند. کیت ML را انتخاب کنید تا به سرعت ویژگیهای تثبیتشده ML را به برنامه تلفن همراه خود اضافه کنید، بدون اینکه نیازی به آموزش مدلها یا نیاز به خروجی تولیدی داشته باشید. این کیت برای بهبود کارآمد برنامهها با قابلیتهای "هوشمند" با استفاده از مدلهای بهینهشده گوگل یا با استقرار مدلهای سفارشی TensorFlow Lite ایدهآل است.
با راهنماها و مستندات جامع ما در سایت توسعهدهنده ML Kit شروع کنید.
استقرار سفارشی یادگیری ماشین با LiteRT
برای کنترل بیشتر یا استقرار مدلهای یادگیری ماشین خودتان، از یک پشته یادگیری ماشین سفارشی ساخته شده بر روی سرویسهای LiteRT و Google Play استفاده کنید. این پشته ملزومات لازم برای استقرار ویژگیهای یادگیری ماشین با عملکرد بالا را فراهم میکند. LiteRT یک جعبه ابزار بهینه شده برای اجرای کارآمد مدلهای TensorFlow در دستگاههای موبایل، تعبیهشده و لبهای با منابع محدود است و به شما این امکان را میدهد که مدلهای بسیار کوچکتر و سریعتری را اجرا کنید که حافظه، انرژی و فضای ذخیرهسازی کمتری مصرف میکنند. زمان اجرای LiteRT برای شتابدهندههای سختافزاری مختلف (GPU، DSP، NPU) در دستگاههای لبهای بسیار بهینه شده است و امکان استنتاج با تأخیر کم را فراهم میکند.
زمانی که نیاز به استقرار کارآمد مدلهای یادگیری ماشین آموزشدیده (معمولاً برای طبقهبندی، رگرسیون یا تشخیص) در دستگاههایی با قدرت محاسباتی یا عمر باتری محدود، مانند تلفنهای هوشمند، دستگاههای اینترنت اشیا یا میکروکنترلرها دارید، LiteRT را انتخاب کنید. این راهکار، راهحل ترجیحی برای استقرار مدلهای پیشبینی سفارشی یا استاندارد در لبه شبکه است که در آن سرعت و صرفهجویی در منابع از اهمیت بالایی برخوردار است.
درباره استقرار یادگیری ماشین با LiteRT بیشتر بدانید.
با MediaPipe، ادراک بلادرنگ را در برنامههای خود ایجاد کنید
مدیاپایپ (MediaPipe) راهکارهای یادگیری ماشینی متنباز، چند پلتفرمی و قابل تنظیم را برای رسانههای زنده و استریمینگ ارائه میدهد. از ابزارهای بهینه و از پیش ساخته شده برای کارهای پیچیده مانند ردیابی دست، تخمین حالت، تشخیص چهره و تشخیص اشیا بهرهمند شوید که همگی امکان تعامل با کارایی بالا و بلادرنگ را حتی در دستگاههای تلفن همراه فراهم میکنند.
خطوط لوله مبتنی بر گراف MediaPipe بسیار قابل تنظیم هستند و به شما امکان میدهند راهحلها را برای برنامههای اندروید، iOS، وب، دسکتاپ و برنامههای backend تنظیم کنید. MediaPipe را زمانی انتخاب کنید که برنامه شما نیاز به درک و واکنش فوری به دادههای حسگر زنده، به ویژه جریانهای ویدیویی، برای موارد استفاده مانند تشخیص حرکت، جلوههای AR، ردیابی تناسب اندام یا کنترل آواتار دارد - که همه بر تجزیه و تحلیل و تفسیر ورودی متمرکز هستند.
راهکارها را بررسی کنید و با MediaPipe شروع به ساخت کنید.
برنامه خود را با دستیار دستگاه ادغام کنید
در حالی که ادغام سنتی هوش مصنوعی بر «وارد کردن هوش مصنوعی به برنامه شما» تمرکز دارد، شما همچنین میتوانید «برنامه خود را به هوش مصنوعی وارد کنید». با ارائه قابلیتهای برنامه خود به ویژگیهای هوش مصنوعی سیستم، به دستیارهای سطح سیستم (مانند Gemini) اجازه میدهید تا قابلیتهای برنامه شما را به صورت عاملی کشف و فراخوانی کنند. AppFunctions راه اصلی برای دستیابی به این ادغام است و برنامه شما را قادر میسازد تا در اکوسیستم گستردهتر هوش مصنوعی اندروید مشارکت کند.
یک رویکرد را انتخاب کنید
هنگام استفاده از هوش مصنوعی برای بهبود برنامه اندروید خود، باید سه رویکرد اصلی را در نظر بگیرید: انجام پردازش روی دستگاه، استفاده از مدلهای مبتنی بر ابر، یا اضافه کردن قابلیتهای برنامه خود به هوش مصنوعی در سطح سیستم. ابزارهایی مانند ML Kit، Gemini Nano و LiteRT قابلیتهای روی دستگاه را فعال میکنند، در حالی که APIهای ابری Gemini با Firebase AI Logic پردازش قدرتمند مبتنی بر ابر را ارائه میدهند. AppFunctions مسیر سوم را نشان میدهد و به شما این امکان را میدهد که با در دسترس قرار دادن ویژگیهای برنامه خود به صورت عامل در سیستم، آن را به هوش مصنوعی تبدیل کنید.
هنگام انتخاب رویکرد خود، این عوامل را در نظر بگیرید:
| عامل | راهکارهای روی دستگاه | راهکارهای ابری |
|---|---|---|
| قابلیت اتصال و عملکرد آفلاین | ایدهآل برای استفاده آفلاین؛ بدون اتصال به شبکه کار میکند. | برای ارتباط با سرورهای راه دور به اتصال شبکه نیاز دارد. |
| حریم خصوصی دادهها | دادههای حساس را به صورت محلی روی دستگاه پردازش و ذخیره میکند. | دادهها به فضای ابری منتقل میشوند و نیاز به اعتماد به امنیت ارائهدهنده دارند. |
| قابلیت کشف و دسترسی | ادغام مستقیم سیستم عامل (AppFunctions) به دستیاران اجازه میدهد تا ویژگیها را کشف کنند. | کشف معمولاً محدود به رابط کاربری داخلی برنامه یا ادغامهای API خاص است. |
| قابلیتهای مدل | برای تأخیر کم و وظایف خاص و کمفشارتر بهینه شده است. | مدلهای قدرتمندی که قادر به مدیریت پیچیدگیهای بالا و ورودیهای بزرگ هستند. |
| ملاحظات هزینه | بدون هزینه مستقیم برای هر بار استفاده؛ از سختافزار موجود دستگاه استفاده میکند. | معمولاً شامل قیمتگذاری مبتنی بر استفاده یا هزینههای اشتراک مداوم میشود. |
| منابع دستگاه | از حافظه داخلی، رم و عمر باتری استفاده میکند. | حداقل تأثیر محلی؛ بارگذاری سنگین به سرور منتقل میشود. |
| تنظیم دقیق | انعطافپذیری محدود؛ محدود به قابلیتهای سختافزاری محلی. | انعطافپذیری بیشتر برای سفارشیسازی گسترده و تنظیم در مقیاس بزرگ. |
| سازگاری بین پلتفرمی | بسته به سیستم عامل و پشتیبانی سخت افزاری، ممکن است در دسترس بودن متفاوت باشد. | تجربهای پایدار در هر پلتفرمی با دسترسی به اینترنت. |
با بررسی دقیق الزامات مورد استفاده و گزینههای موجود، میتوانید راهحل ایدهآل هوش مصنوعی/یادگیری ماشین را برای بهبود برنامه اندروید خود و ارائه تجربیات هوشمند و شخصیسازیشده به کاربران خود پیدا کنید.
راهنمای راهکارهای هوش مصنوعی/یادگیری ماشین
این راهنمای راهحلها میتواند به شما در شناسایی ابزارهای توسعهدهنده مناسب برای ادغام فناوریهای هوش مصنوعی/یادگیری ماشین در پروژههای اندرویدتان کمک کند.
هدف اصلی ویژگی هوش مصنوعی چیست؟
- الف) تولید محتوای جدید (متن، توضیحات تصویر) یا انجام پردازش متن ساده (خلاصهسازی، ویرایش یا بازنویسی متن)؟ → به Generative AI بروید
- ب) تحلیل دادهها/ورودیهای موجود برای پیشبینی، طبقهبندی، تشخیص، درک الگوها یا پردازش جریانهای بلادرنگ (مانند ویدئو/صوت)؟ → به یادگیری ماشین سنتی و ادراک بروید
- ج) افزایش قابلیتهای برنامه برای ادغام با ویژگیهای هوش مصنوعی سیستم (وارد کردن برنامه به هوش مصنوعی)؟ → به وارد کردن برنامه به هوش مصنوعی بروید
یادگیری ماشین سنتی و ادراک
شما باید ورودی را تجزیه و تحلیل کنید، ویژگیها را شناسایی کنید یا بر اساس الگوهای آموخته شده پیشبینیهایی انجام دهید، نه اینکه خروجی کاملاً جدیدی تولید کنید.
چه وظیفه خاصی را انجام میدهید؟
- الف) آیا به ادغام سریع ویژگیهای رایج و از پیش ساخته شدهی یادگیری ماشین موبایل نیاز دارید؟ (مثلاً اسکن بارکد، تشخیص متن (OCR)، تشخیص چهره، برچسبگذاری تصویر، تشخیص و ردیابی اشیاء، شناسه زبان، پاسخ هوشمند اولیه)
- → استفاده از: کیت ML (API های سنتی)
- چرا : سادهترین ادغام برای وظایف یادگیری ماشینی موبایل، که اغلب برای استفاده روی دستگاه بهینه شده است (تأخیر کم، آفلاین، حریم خصوصی).
- ب) آیا برای انجام وظایف ادراکی نیاز به پردازش دادههای جریانی بلادرنگ (مانند ویدئو یا صدا) دارید؟ (مثلاً ردیابی دست، تخمین حالت، شبکه چهره، تشخیص و قطعهبندی بلادرنگ اشیا در ویدئو)
- → استفاده: مدیاپایپ
- چرا : چارچوبی تخصصی برای خطوط لوله ادراک با کارایی بالا و بلادرنگ در پلتفرمهای مختلف.
- ج) آیا نیاز دارید مدل یادگیری ماشین آموزشدیده سفارشی خود را (مثلاً برای طبقهبندی، رگرسیون، تشخیص) به طور کارآمد روی دستگاه اجرا کنید و عملکرد و استفاده کم از منابع را در اولویت قرار دهید؟
- → استفاده از: LiteRT (زمان اجرای TensorFlow Lite)
- دلیل : زمان اجرای بهینه برای استقرار کارآمد مدلهای سفارشی در دستگاههای موبایل و لبه (اندازه کوچک، استنتاج سریع، شتاب سختافزاری).
- د) آیا نیاز دارید مدل یادگیری ماشین سفارشی خودتان را برای یک کار خاص آموزش دهید ؟
- → استفاده: LiteRT (TensorFlow Lite Runtime) + آموزش مدل سفارشی
- چرا : ابزارهایی را برای آموزش و استقرار مدلهای سفارشی، بهینه شده برای دستگاههای تلفن همراه و لبه، فراهم میکند.
- ه) به طبقهبندی پیشرفته محتوا، تحلیل احساسات یا ترجمه چندین زبان با ظرافت بالا نیاز دارید؟
- در نظر بگیرید که آیا مدلهای سنتی یادگیری ماشین (که به طور بالقوه با استفاده از LiteRT یا فضای ابری مستقر میشوند) مناسب هستند، یا اینکه NLU پیشرفته به مدلهای مولد نیاز دارد (به شروع برگردید، A را انتخاب کنید). برای طبقهبندی، احساسات یا ترجمه مبتنی بر فضای ابری:
- → کاربرد: راهکارهای مبتنی بر ابر (مثلاً API زبان طبیعی گوگل کلود ، API ترجمه گوگل کلود ، که احتمالاً با استفاده از یک backend سفارشی یا Vertex AI قابل دسترسی هستند) . (اگر آفلاین یا حریم خصوصی مهم باشد، اولویت کمتری نسبت به گزینههای روی دستگاه دارند).
- چرا : راهکارهای ابری مدلهای قدرتمند و پشتیبانی گسترده از زبانها را ارائه میدهند، اما نیاز به اتصال دارند و ممکن است هزینههایی را متحمل شوند.
هوش مصنوعی مولد
شما نیاز به ایجاد محتوای جدید، خلاصه کردن، بازنویسی یا انجام وظایف پیچیده درک یا تعامل دارید.
آیا نیاز دارید که هوش مصنوعی به صورت آفلاین کار کند، به حداکثر حریم خصوصی دادهها نیاز دارید (دادههای کاربر روی دستگاه نگهداری شود) یا میخواهید از هزینههای استنتاج ابری اجتناب کنید؟
- الف) بله ، آفلاین، حداکثر حریم خصوصی یا بدون هزینه ابری بسیار مهم است.
- → به هوش مصنوعی مولد روی دستگاه بروید
- ب) خیر ، اتصال موجود و قابل قبول است، قابلیتهای ابری و مقیاسپذیری مهمتر هستند، یا ویژگیهای خاصی به فضای ابری نیاز دارند.
- → به هوش مصنوعی مولد ابری بروید
هوش مصنوعی مولد روی دستگاه (با استفاده از Gemini Nano)
هشدارها : به دستگاههای اندروید سازگار نیاز دارد، پشتیبانی iOS محدود است، مدلها نسبت به مدلهای ابری قدرت کمتری دارند.
با استفاده از API Prompt کیت ML، میتوانید درخواستهای زبان طبیعی را با ورودیهای فقط متن یا متن و تصویر برای موارد استفاده مختلف، مانند درک تصویر، ترجمههای کوتاه و خلاصهسازیهای هدایتشده، ارسال کنید. اگر موارد استفاده شما با این محدودیتهای توکن برآورده میشود، APIهای GenAI کیت ML بهترین گزینه برای هوش مصنوعی مولد روی دستگاه هستند. کیت ML همچنین APIهای سادهای را برای کارهای رایج مانند خلاصهسازی و پاسخ هوشمند ارائه میدهد.
- → استفاده: رابطهای برنامهنویسی کاربردی GenAI کیت ML (ارائه شده توسط Gemini Nano)
- چرا : سادهترین راه برای ادغام وظایف هوش مصنوعی مولد روی دستگاه با استفاده از دستورات زبان طبیعی، راهکار روی دستگاه با بالاترین اولویت.
هوش مصنوعی مولد ابری
از مدلهای قدرتمندتری استفاده میکند، به اتصال نیاز دارد، معمولاً شامل هزینههای استنتاج میشود، دسترسی به دستگاههای وسیعتر و سازگاری آسانتر بین پلتفرمی (اندروید و iOS) را ارائه میدهد.
اولویت شما چیست: سهولت ادغام در Firebase یا حداکثر انعطافپذیری/کنترل؟
- الف) ادغام آسانتر، تجربه API مدیریتشده را ترجیح میدهید و احتمالاً از Firebase استفاده میکنید؟
- → استفاده از: کیت توسعه نرمافزاری منطق هوش مصنوعی فایربیس → رفتن به منطق هوش مصنوعی فایربیس
- ب) به حداکثر انعطافپذیری، دسترسی به وسیعترین طیف مدلها (از جمله مدلهای شخص ثالث/سفارشی)، تنظیم دقیق پیشرفته نیاز دارید و مایل به مدیریت یکپارچهسازی backend خود (پیچیدهتر) هستید؟
- → استفاده: رابط برنامهنویسی نرمافزار Gemini با یک Backend ابری سفارشی (با استفاده از پلتفرم ابری گوگل)
- چرا : بیشترین کنترل، وسیعترین دسترسی به مدل و گزینههای آموزش سفارشی را ارائه میدهد اما به تلاش قابل توجهی برای توسعه backend نیاز دارد. مناسب برای نیازهای پیچیده، در مقیاس بزرگ یا بسیار سفارشی.
( شما Firebase AI Logic SDK را انتخاب کردید) به چه نوع وظیفه مولد و پروفایل عملکردی نیاز دارید؟
- الف) به دنبال تعادلی بین عملکرد و هزینه هستید، مناسب برای تولید متن عمومی، خلاصهسازی یا برنامههای چت که در آنها سرعت مهم است؟
- → استفاده: کیت توسعه نرمافزاری منطق هوش مصنوعی فایربیس با فلش جمینی
- دلیل : برای سرعت و کارایی در محیط مدیریتشده توسط Vertex AI بهینهسازی شده است.
- ب) به کیفیت و قابلیت بالاتری برای تولید متن پیچیده، استدلال، NLU پیشرفته یا دنبال کردن دستورالعمل نیاز دارید؟
- → استفاده از: کیت توسعه نرمافزاری منطق هوش مصنوعی فایربیس به همراه جمینی پرو
- چرا : مدل متنی قدرتمندتر برای وظایف دشوار، که از طریق Firebase قابل دسترسی است.
- ج) آیا به تولید تصویر پیچیده یا درک یا دستکاری پیشرفته تصویر بر اساس پیامهای متنی نیاز دارید؟
- → استفاده: کیت توسعه نرمافزاری منطق هوش مصنوعی فایربیس با ایمیجن ۳
- دلیل : مدل تولید تصویر پیشرفته که با استفاده از محیط مدیریتشدهی Firebase قابل دسترسی است.
توابع برنامه
شما باید عملکرد برنامه خود را برای ادغام با ویژگیهای هوش مصنوعی سیستم (وارد کردن برنامه خود به هوش مصنوعی) افزایش دهید.
- → استفاده از: توابع برنامه
- دلیل : ویژگیهای هوش مصنوعی سیستم، مانند دستیار، را قادر میسازد تا قابلیتهای برنامه شما را کشف و فراخوانی کند.