Tin tức về sản phẩm
Thông báo về Gemma 4 trong Bản dùng trước AICore cho nhà phát triển
Đọc trong 3 phút
Tại Google, chúng tôi cam kết mang những mô hình AI mạnh mẽ nhất đến thẳng các thiết bị Android mà bạn đang dùng. Hôm nay, chúng tôi rất vui mừng thông báo về việc phát hành mô hình nguồn mở tiên tiến mới nhất của mình: Gemma 4.
Những mô hình này là nền tảng cho Gemini Nano thế hệ tiếp theo, vì vậy, mã bạn viết hôm nay cho Gemma 4 sẽ tự động hoạt động trên các thiết bị có Gemini Nano 4 sẽ ra mắt vào cuối năm nay. Với Gemini Nano 4, bạn sẽ được hưởng lợi từ các hoạt động tối ưu hoá hiệu suất bổ sung của chúng tôi để có thể phát hành cho sản xuất trên toàn bộ hệ sinh thái Android với suy luận hiệu quả nhất trên thiết bị.
Bạn có thể tiếp cận sớm mô hình này ngay hôm nay thông qua Bản dùng trước cho nhà phát triển AICore.
Chọn mô hình Gemini Nano 4 Fast trong giao diện người dùng Bản dùng trước cho nhà phát triển để xem tốc độ suy luận cực nhanh của mô hình này trước khi bạn viết bất kỳ mã nào
Vì Gemma 4 hỗ trợ hơn 140 ngôn ngữ nên bạn có thể kỳ vọng trải nghiệm đa ngôn ngữ, phù hợp với từng địa phương sẽ được cải thiện cho khán giả trên toàn cầu. Hơn nữa, Gemma 4 mang đến hiệu suất hàng đầu trong ngành nhờ khả năng xử lý dữ liệu đa phương thức, cho phép các ứng dụng của bạn hiểu và xử lý văn bản, hình ảnh và âm thanh. Để mang đến cho bạn sự cân bằng tốt nhất giữa hiệu suất và hiệu quả, Gemma 4 trên Android có hai kích thước:
- E4B: Được thiết kế để có khả năng suy luận cao hơn và xử lý các nhiệm vụ phức tạp.
- E2B: Được tối ưu hoá để đạt tốc độ tối đa (nhanh hơn 3 lần so với mô hình E4B!) và độ trễ thấp hơn.
Mô hình mới nhanh hơn gấp 4 lần so với các phiên bản trước và sử dụng ít pin hơn tới 60%. Kể từ hôm nay, bạn có thể thử nghiệm các tính năng được cải thiện, bao gồm:
- Lý do: Giờ đây, bạn có thể mong đợi các lệnh theo chuỗi suy luận và câu lệnh có điều kiện sẽ trả về kết quả có chất lượng cao hơn. Ví dụ: "Xác định xem bình luận sau đây trong một chuỗi thảo luận có tuân thủ nguyên tắc cộng đồng hay không. Bình luận không tuân thủ nguyên tắc cộng đồng nếu chứa một hoặc nhiều reason_for_flag sau: ngôn từ thô tục, ngôn từ xúc phạm, lời nói hận thù. Nếu bình luận tuân thủ nguyên tắc cộng đồng, hãy trả về {true}. Nếu không, hãy trả về {false, reason_for_flag}.”
- Toán học: Nhờ kỹ năng toán học được cải thiện, giờ đây, mô hình có thể trả lời câu hỏi chính xác hơn. Ví dụ: "Nếu tôi nhận được 26 khoản lương mỗi năm, thì tôi nên đóng góp bao nhiêu cho mỗi khoản lương để đạt được mục tiêu tiết kiệm 10.000 đô la trong một năm?"
- Hiểu biết về thời gian: Giờ đây, mô hình có khả năng suy luận về thời gian tốt hơn, giúp mô hình chính xác hơn trong các trường hợp sử dụng liên quan đến lịch, lời nhắc và báo thức. Ví dụ: "Sự kiện diễn ra lúc 6 giờ chiều ngày 18 tháng 8 và lời nhắc sẽ được gửi 10 giờ trước khi sự kiện diễn ra. Trả về thời gian và ngày mà lời nhắc sẽ được gửi."
- Hiểu hình ảnh: Các trường hợp sử dụng liên quan đến OCR (Nhận dạng ký tự quang học) – chẳng hạn như hiểu biểu đồ, trích xuất dữ liệu trực quan và nhận dạng chữ viết tay – giờ đây sẽ trả về kết quả chính xác hơn.
Hãy tham gia Bản dùng trước cho nhà phát triển ngay hôm nay để tải các mô hình này xuống trong các mô hình dùng trước và bắt đầu xây dựng các tính năng thế hệ tiếp theo ngay lập tức.
Bắt đầu kiểm thử mô hình
Bạn có thể dùng thử mô hình mà không cần mã bằng cách làm theo hướng dẫn về Bản dùng trước cho nhà phát triển. Nếu bạn muốn bắt đầu tích hợp ngay các mô hình này với quy trình làm việc hiện tại, chúng tôi đã đơn giản hoá quy trình đó. Hãy chuyển sang Android Studio để tinh chỉnh câu lệnh và tạo bằng Prompt API quen thuộc của Bộ công cụ học máy. Chúng tôi đã ra mắt một tính năng mới để chỉ định mô hình, cho phép bạn nhắm đến các biến thể E2B (nhanh) hoặc E4B (đầy đủ) để thử nghiệm.
// Define the configuration with a specific track and preference val previewFullConfig = generationConfig { modelConfig = ModelConfig { releaseTrack = ModelReleaseTrack.PREVIEW preference = ModelPreference.FULL } } // Initialize the GenerativeModel with the configuration val previewModel = GenerativeModel.getClient(previewFullConfig) // Verify that the specific preview model is available val previewModelStatus = previewModel.checkStatus() if (previewModelStatus == FeatureStatus.AVAILABLE) { // Proceed with inference val response = previewModel.generateContent("If I get 26 paychecks per year, how much I should contribute each paycheck to reach my savings goal of $10k over the course of a year? Return only the amount.") } else { // Handle the case where the preview model is not available // (e.g., print out log statements) }
Những điều cần biết trong thời gian diễn ra Bản dùng trước cho nhà phát triển
Mục tiêu của Bản dùng trước cho nhà phát triển này là giúp bạn có lợi thế ban đầu trong việc tinh chỉnh độ chính xác của câu lệnh và khám phá các trường hợp sử dụng mới cho các ứng dụng cụ thể của bạn.
Chúng tôi sẽ thực hiện một số nội dung cập nhật trong suốt thời gian dùng thử, bao gồm cả việc hỗ trợ gọi công cụ, đầu ra có cấu trúc, câu lệnh hệ thống và chế độ Tư duy trong Prompt API, giúp bạn dễ dàng tận dụng tối đa các chức năng mới trong Gemma 4 cũng như các điểm tối ưu hoá hiệu suất đáng kể.
Bạn có thể thử nghiệm các mô hình xem trước trên các thiết bị có AI Core. Các mô hình này sẽ chạy trên bộ tăng tốc AI chuyên dụng thế hệ mới nhất của Google, MediaTek và Qualcomm Technologies. Trên các thiết bị khác, ban đầu, các mô hình sẽ chạy trên một quy trình triển khai CPU không đại diện cho hiệu suất phát hành công khai cuối cùng. Nếu thiết bị của bạn không được tích hợp AICore, bạn cũng có thể thử nghiệm các mô hình này thông qua ứng dụng AI Edge Gallery. Chúng tôi sẽ hỗ trợ nhiều thiết bị hơn trong tương lai.
Cách bắt đầu
Bạn đã sẵn sàng khám phá những việc Gemma 4 có thể làm cho người dùng của bạn chưa?
- Chọn tham gia: Đăng ký tham gia Bản dùng trước AICore cho nhà phát triển.
- Tải xuống: Sau khi chọn tham gia, bạn có thể kích hoạt quá trình tải các mô hình Gemma 4 mới nhất xuống thiết bị thử nghiệm được hỗ trợ.
- Xây dựng: Cập nhật việc triển khai Bộ công cụ học máy để nhắm đến các mô hình mới và bắt đầu xây dựng trong Android Studio.
Tiếp tục đọc
-
Tin tức về sản phẩm
Để hỗ trợ thêm cho các trường hợp sử dụng Prompt API của Bộ công cụ học máy trong quá trình phát hành công khai, chúng tôi rất vui mừng thông báo về tính năng Tối ưu hoá câu lệnh tự động (APO) nhắm đến các mô hình trên thiết bị trên Vertex AI. Tối ưu hoá câu lệnh tự động là một công cụ giúp bạn tự động tìm ra câu lệnh tối ưu cho các trường hợp sử dụng của mình.
Chetan Tekur, Chao Zhao, Paul Zhou, Caren Chang • Đọc trong 3 phút
-
Tin tức về sản phẩm
AI giúp bạn dễ dàng tạo ra trải nghiệm trong ứng dụng phù hợp cho từng người dùng bằng cách chuyển đổi nội dung sang định dạng phù hợp với người dùng. Trước đây, chúng tôi cho phép nhà phát triển tích hợp với Gemini Nano thông qua các API GenAI của Bộ công cụ học máy được điều chỉnh cho các trường hợp sử dụng cụ thể như tóm tắt và mô tả hình ảnh.
Caren Chang, Chengji Yan, Penny Li • Đọc trong 2 phút
-
Tin tức về sản phẩm
Giờ đây, việc kiểm thử các lượt tương tác trên nhiều thiết bị trở nên dễ dàng hơn bao giờ hết nhờ Trình mô phỏng Android.
Steven Jenkins • Đọc trong 2 phút
Nhận thông tin cập nhật
Nhận thông tin chi tiết mới nhất về hoạt động phát triển trên Android trong hộp thư đến của bạn mỗi tuần.