FunctionGemma o novo modelo compacto do Google que transforma comandos em ações no aparelho

4 meses ago · Updated 4 meses ago

functiongemma-o-novo-modelo-compacto-do-google-que-transforma-comandos-em-acoes-no-aparelho
Table
  1. Ouça este artigo
  2. Google lança FunctionGemma para chamadas de função em dispositivos de borda
  3. O que é a FunctionGemma?
  4. Arquitetura e dados de treinamento
  5. Formato de conversa e tokens de controle
  6. Fine‑tuning e desempenho em Mobile Actions
  7. Agentes de borda e demos de referência
  8. Integração e ferramentas de implantação
  9. Como você pode começar
  10. Conclusão
  11. Perguntas frequentes

Ouça este artigo


Você vai conhecer o FunctionGemma, a versão compacta do Gemma feita para transformar instruções em chamadas de função executáveis. O artigo mostra a arquitetura e os dados de treino, explica o formato de conversa e os tokens de controle, detalha como fine tuning melhora o desempenho em Mobile Actions, e apresenta demos e usos práticos de agentes na borda para rodar no seu dispositivo.

  • FunctionGemma é um modelo pequeno focado em chamadas de função
  • Projetado para rodar na borda e executar ações locais sem enviar dados ao servidor
  • Usa um formato de conversa rígido com marcadores de controle para funções e resultados
  • Melhora muito com fine‑tuning para tarefas específicas, como ações móveis
  • É aberto, otimizado para JSON, multilíngue e fácil de integrar em demos e dispositivos

Google lança FunctionGemma para chamadas de função em dispositivos de borda

Você acaba de obter um modelo pequeno e especializado para transformar instruções em chamadas de API executáveis. A FunctionGemma é uma versão ajustada do Gemma 3 com 270 milhões de parâmetros, criada para rodar localmente em dispositivos com recursos limitados e disponibilizada sob a licença Gemma.

O que é a FunctionGemma?

FunctionGemma é um modelo de linguagem causal, somente texto, com arquitetura do Gemma 3. Não foi desenhada para conversas abertas — seu objetivo é traduzir comandos em chamadas de função estruturadas e, quando necessário, sumarizar a resposta da ferramenta em linguagem natural. O foco é eficiência em tarefas bem definidas, não atuação como assistente geral.

Arquitetura e dados de treinamento

  • Parâmetros: 270M (0.27B)
  • Arquitetura: Transformer do Gemma 3
  • Vocabulário: 256K tokens, otimizado para JSON e texto multilíngue — reduz o uso de tokens em esquemas de função
  • Contexto: 32K tokens
  • Treino: cerca de 6 trilhões de tokens
  • Corte de conhecimento: agosto de 2024
  • Infraestrutura: treino e runtime reutilizam ferramentas internas (JAX, ML Pathways) em grandes clusters TPU, conforme a abordagem técnica vista nas novidades do setor e nos eventos como o Google I/O 2024

Esses elementos foram pensados para economizar memória e latência, permitindo execução local em telefones e pequenos aceleradores.

Formato de conversa e tokens de controle

FunctionGemma exige um formato de conversa rígido. Cada turno usa marcas como e , com papéis (por exemplo, developer, user, model). O modelo também depende de pares de tokens de controle que separam texto livre, esquemas de função e resultados de execução. Ferramentas e templates usados em pipelines de integração automatizam essa estrutura — veja como pipelines e templates são aplicados na prática em textos sobre construção de pipelines com Gemini.

Fine‑tuning e desempenho em Mobile Actions

A versão base já entende uso de ferramentas, mas a confiabilidade em produção melhora muito com fine‑tuning. No conjunto de avaliação Mobile Actions, que simula comandos do sistema Android (criar contato, evento de calendário, ligar a lanterna etc.), os resultados foram:

Versão do modelo Acurácia no teste
Base (sem fine‑tune) 58%
Fine‑tuned (receita pública) 85%

Os resultados mostram que, para comportamentos determinísticos, é recomendado aplicar fine‑tuning usando receitas públicas e ferramentas de avaliação como o STAX para testar e comparar versões.

Agentes de borda e demos de referência

A Google oferece demos e experiências para validar uso local. A proposta é executar lógica multi‑etapa sem chamadas ao servidor, quando você instala agentes na máquina:

  • Alvo principal: telefones, laptops e aceleradores pequenos (ex.: NVIDIA Jetson Nano)
  • Recursos: suporte a quantização, baixa memória e latência — técnicas que também aparecem em modelos voltados a reduzir tokens e custos, como a prévia do Gemini Flash Lite
  • Demos públicas: Mobile Actions (operações do sistema Android) e TinyGarden (jogo que demonstra ações multi‑turno)
  • Galeria: exemplos práticos e de catálogo são frequentemente apresentados em posts sobre disponibilidade e demos, como a chegada do Gemini na Play Store

Se a prioridade for busca privada e resposta local em celulares, há também iniciativas de embeddings e buscas offline que mostram como integrar modelos na ponta, como o uso de EmbeddingGemma no celular.

Com ajuste e interfaces de ferramenta adequadas, um modelo de 270M pode realizar tarefas locais úteis.

Integração e ferramentas de implantação

Você pode usar várias ferramentas para treinar e implantar FunctionGemma. Entre os suportes apontados estão:

  • Plataformas e libs: Hugging Face, Keras, NVIDIA NeMo, Unsloth
  • Motores e runtimes: LiteRT‑LM, vLLM, MLX, Llama.cpp, Ollama, Vertex AI, LM Studio
  • Integração CI/CD e automação: há práticas e ferramentas para usar CLIs e integrações em GitHub Actions com segurança, por exemplo o uso do Gemini CLI em GitHub Actions
  • Testes e avaliações: use frameworks de comparação e teste para validar comportamento após fine‑tune (STAX)
  • Escolha de modelos: entender as diferenças entre variantes maiores e compactas ajuda a decidir quando delegar tarefas a modelos maiores (diferenças entre versões Gemini)

Esses caminhos permitem experimentos locais ou integração a sistemas maiores, delegando tarefas mais complexas a modelos maiores quando necessário.

Como você pode começar

  • Baixe o modelo em repositórios públicos (por exemplo, Hugging Face)
  • Use a documentação de templates para montar as conversas com os signos de controle
  • Siga o cookbook de fine‑tuning (Mobile Actions) para adaptar o modelo ao seu conjunto de ferramentas, aproveitando pipelines e receitas de integração descritas em guias sobre construção de pipelines
  • Teste nos demos da Google AI Edge Gallery e implemente em dispositivos com suporte à quantização

Conclusão

A FunctionGemma é um modelo compacto (270M) projetado para transformar instruções em chamadas de função executáveis diretamente no aparelho. Roda na borda, com otimizações para JSON e suporte multilíngue, e usa um formato de conversa rígido com tokens de controle — o que garante previsibilidade, mas exige cuidado no formato das entradas. O principal benefício é privacidade: muitas ações podem ocorrer sem enviar dados para servidores externos; essa preocupação com dados locais também é explorada em trabalhos sobre privacidade e modelos especializados, como VaultGemma. Para confiança em produção, fine‑tuning é quase obrigatório (salto de ~58% para ~85% no Mobile Actions). A integração é acessível via Hugging Face, Keras, NeMo e runtimes como Llama.cpp; há ferramentas de quantização para rodar em telefones e pequenos aceleradores.

Quer prototipar ações offline, preservar dados e reduzir latência? Comece baixando o modelo, siga as receitas de fine‑tuning e coloque agentes simples na borda. Para continuar aprendendo e ver mais exemplos práticos, confira outros artigos em https://blog.aidirectory.com.br.

Perguntas frequentes

  • O que é o FunctionGemma?
    FunctionGemma é uma versão especializada do Gemma 3 (270M) que transforma instruções em chamadas de função para executar ações no aparelho.
  • Qual é a arquitetura e o tamanho do modelo?
    Usa a arquitetura Gemma 3 com 270 milhões de parâmetros, vocabulário de 256K e contexto de 32K tokens.
  • Como o modelo entende comandos e ferramentas?
    Usa um formato de conversa rígido com marcas como e tokens de controle para separar texto, esquemas de função e resultados de execução.
  • Precisa de fine‑tuning para funcionar bem?
    Sim. No Mobile Actions o modelo base acerta 58%; com fine‑tuning via receita pública chega a ~85%.
  • Onde e para que posso usar o FunctionGemma?
    Foi feito para rodar na borda: celulares, laptops e aceleradores pequenos. Exemplos: Mobile Actions, TinyGarden e controles do sistema sem enviar dados ao servidor. Veja também possibilidades de buscas locais e embeddings em mobile com o artigo sobre EmbeddingGemma no celular.

Se você quiser conhecer outros artigos semelhantes a FunctionGemma o novo modelo compacto do Google que transforma comandos em ações no aparelho, você pode visitar a categoria Notícias e Tendências.

Go up