FunctionGemma o novo modelo compacto do Google que transforma comandos em ações no aparelho
4 meses ago · Updated 4 meses ago

- Ouça este artigo
- Google lança FunctionGemma para chamadas de função em dispositivos de borda
- O que é a FunctionGemma?
- Arquitetura e dados de treinamento
- Formato de conversa e tokens de controle
- Fine‑tuning e desempenho em Mobile Actions
- Agentes de borda e demos de referência
- Integração e ferramentas de implantação
- Como você pode começar
- Conclusão
- Perguntas frequentes
Ouça este artigo
Você vai conhecer o FunctionGemma, a versão compacta do Gemma feita para transformar instruções em chamadas de função executáveis. O artigo mostra a arquitetura e os dados de treino, explica o formato de conversa e os tokens de controle, detalha como fine tuning melhora o desempenho em Mobile Actions, e apresenta demos e usos práticos de agentes na borda para rodar no seu dispositivo.
- FunctionGemma é um modelo pequeno focado em chamadas de função
- Projetado para rodar na borda e executar ações locais sem enviar dados ao servidor
- Usa um formato de conversa rígido com marcadores de controle para funções e resultados
- Melhora muito com fine‑tuning para tarefas específicas, como ações móveis
- É aberto, otimizado para JSON, multilíngue e fácil de integrar em demos e dispositivos
Google lança FunctionGemma para chamadas de função em dispositivos de borda
Você acaba de obter um modelo pequeno e especializado para transformar instruções em chamadas de API executáveis. A FunctionGemma é uma versão ajustada do Gemma 3 com 270 milhões de parâmetros, criada para rodar localmente em dispositivos com recursos limitados e disponibilizada sob a licença Gemma.
O que é a FunctionGemma?
FunctionGemma é um modelo de linguagem causal, somente texto, com arquitetura do Gemma 3. Não foi desenhada para conversas abertas — seu objetivo é traduzir comandos em chamadas de função estruturadas e, quando necessário, sumarizar a resposta da ferramenta em linguagem natural. O foco é eficiência em tarefas bem definidas, não atuação como assistente geral.
Arquitetura e dados de treinamento
- Parâmetros: 270M (0.27B)
- Arquitetura: Transformer do Gemma 3
- Vocabulário: 256K tokens, otimizado para JSON e texto multilíngue — reduz o uso de tokens em esquemas de função
- Contexto: 32K tokens
- Treino: cerca de 6 trilhões de tokens
- Corte de conhecimento: agosto de 2024
- Infraestrutura: treino e runtime reutilizam ferramentas internas (JAX, ML Pathways) em grandes clusters TPU, conforme a abordagem técnica vista nas novidades do setor e nos eventos como o Google I/O 2024
Esses elementos foram pensados para economizar memória e latência, permitindo execução local em telefones e pequenos aceleradores.
Formato de conversa e tokens de controle
FunctionGemma exige um formato de conversa rígido. Cada turno usa marcas como e , com papéis (por exemplo, developer, user, model). O modelo também depende de pares de tokens de controle que separam texto livre, esquemas de função e resultados de execução. Ferramentas e templates usados em pipelines de integração automatizam essa estrutura — veja como pipelines e templates são aplicados na prática em textos sobre construção de pipelines com Gemini.
Fine‑tuning e desempenho em Mobile Actions
A versão base já entende uso de ferramentas, mas a confiabilidade em produção melhora muito com fine‑tuning. No conjunto de avaliação Mobile Actions, que simula comandos do sistema Android (criar contato, evento de calendário, ligar a lanterna etc.), os resultados foram:
| Versão do modelo | Acurácia no teste |
|---|---|
| Base (sem fine‑tune) | 58% |
| Fine‑tuned (receita pública) | 85% |
Os resultados mostram que, para comportamentos determinísticos, é recomendado aplicar fine‑tuning usando receitas públicas e ferramentas de avaliação como o STAX para testar e comparar versões.
Agentes de borda e demos de referência
A Google oferece demos e experiências para validar uso local. A proposta é executar lógica multi‑etapa sem chamadas ao servidor, quando você instala agentes na máquina:
- Alvo principal: telefones, laptops e aceleradores pequenos (ex.: NVIDIA Jetson Nano)
- Recursos: suporte a quantização, baixa memória e latência — técnicas que também aparecem em modelos voltados a reduzir tokens e custos, como a prévia do Gemini Flash Lite
- Demos públicas: Mobile Actions (operações do sistema Android) e TinyGarden (jogo que demonstra ações multi‑turno)
- Galeria: exemplos práticos e de catálogo são frequentemente apresentados em posts sobre disponibilidade e demos, como a chegada do Gemini na Play Store
Se a prioridade for busca privada e resposta local em celulares, há também iniciativas de embeddings e buscas offline que mostram como integrar modelos na ponta, como o uso de EmbeddingGemma no celular.
Com ajuste e interfaces de ferramenta adequadas, um modelo de 270M pode realizar tarefas locais úteis.
Integração e ferramentas de implantação
Você pode usar várias ferramentas para treinar e implantar FunctionGemma. Entre os suportes apontados estão:
- Plataformas e libs: Hugging Face, Keras, NVIDIA NeMo, Unsloth
- Motores e runtimes: LiteRT‑LM, vLLM, MLX, Llama.cpp, Ollama, Vertex AI, LM Studio
- Integração CI/CD e automação: há práticas e ferramentas para usar CLIs e integrações em GitHub Actions com segurança, por exemplo o uso do Gemini CLI em GitHub Actions
- Testes e avaliações: use frameworks de comparação e teste para validar comportamento após fine‑tune (STAX)
- Escolha de modelos: entender as diferenças entre variantes maiores e compactas ajuda a decidir quando delegar tarefas a modelos maiores (diferenças entre versões Gemini)
Esses caminhos permitem experimentos locais ou integração a sistemas maiores, delegando tarefas mais complexas a modelos maiores quando necessário.
Como você pode começar
- Baixe o modelo em repositórios públicos (por exemplo, Hugging Face)
- Use a documentação de templates para montar as conversas com os signos de controle
- Siga o cookbook de fine‑tuning (Mobile Actions) para adaptar o modelo ao seu conjunto de ferramentas, aproveitando pipelines e receitas de integração descritas em guias sobre construção de pipelines
- Teste nos demos da Google AI Edge Gallery e implemente em dispositivos com suporte à quantização
Conclusão
A FunctionGemma é um modelo compacto (270M) projetado para transformar instruções em chamadas de função executáveis diretamente no aparelho. Roda na borda, com otimizações para JSON e suporte multilíngue, e usa um formato de conversa rígido com tokens de controle — o que garante previsibilidade, mas exige cuidado no formato das entradas. O principal benefício é privacidade: muitas ações podem ocorrer sem enviar dados para servidores externos; essa preocupação com dados locais também é explorada em trabalhos sobre privacidade e modelos especializados, como VaultGemma. Para confiança em produção, fine‑tuning é quase obrigatório (salto de ~58% para ~85% no Mobile Actions). A integração é acessível via Hugging Face, Keras, NeMo e runtimes como Llama.cpp; há ferramentas de quantização para rodar em telefones e pequenos aceleradores.
Quer prototipar ações offline, preservar dados e reduzir latência? Comece baixando o modelo, siga as receitas de fine‑tuning e coloque agentes simples na borda. Para continuar aprendendo e ver mais exemplos práticos, confira outros artigos em https://blog.aidirectory.com.br.
Perguntas frequentes
- O que é o FunctionGemma?
FunctionGemma é uma versão especializada do Gemma 3 (270M) que transforma instruções em chamadas de função para executar ações no aparelho.
- Qual é a arquitetura e o tamanho do modelo?
Usa a arquitetura Gemma 3 com 270 milhões de parâmetros, vocabulário de 256K e contexto de 32K tokens.
- Como o modelo entende comandos e ferramentas?
Usa um formato de conversa rígido com marcas como e tokens de controle para separar texto, esquemas de função e resultados de execução.
- Precisa de fine‑tuning para funcionar bem?
Sim. No Mobile Actions o modelo base acerta 58%; com fine‑tuning via receita pública chega a ~85%.
- Onde e para que posso usar o FunctionGemma?
Foi feito para rodar na borda: celulares, laptops e aceleradores pequenos. Exemplos: Mobile Actions, TinyGarden e controles do sistema sem enviar dados ao servidor. Veja também possibilidades de buscas locais e embeddings em mobile com o artigo sobre EmbeddingGemma no celular.
Se você quiser conhecer outros artigos semelhantes a FunctionGemma o novo modelo compacto do Google que transforma comandos em ações no aparelho, você pode visitar a categoria Notícias e Tendências.
