Agora você pode selecionar e editar objetos no seu celular com um toque no Snapseed

4 dias ago · Updated 4 dias ago

agora-voce-pode-selecionar-e-editar-objetos-no-seu-celular-com-um-toque-no-snapseed
Table
  1. Ouça este artigo
  2. Novo recurso no Snapseed permite seleção de objetos em tempo real no seu dispositivo
  3. Como você usa o recurso
  4. Principais características técnicas
  5. Arquitetura do modelo (visão geral)
  6. Como o modelo foi treinado
  7. Benefícios e limitações
  8. Disponibilidade e próximos passos
  9. Destaques técnicos (lista)
  10. Conclusão
  11. Perguntas Frequentes

Ouça este artigo


Você vai descobrir como o Object Brush do Snapseed facilita editar objetos na sua foto diretamente no seu aparelho. Basta tocar ou riscar para selecionar. O Interactive Segmenter roda no dispositivo e gera máscaras precisas rapidamente, deixando a edição mais simples e rápida. Experimente quando a função chegar ao iOS.

  • Pincel de Objetos no Snapseed permite editar partes da foto com traço simples
  • Segmentador interativo roda todo no aparelho para seleção rápida e precisa
  • Modelo menor foi criado por distilação de um modelo maior usando muitos dados fracos
  • Arquitetura separa entendimento da imagem e entrada do toque para ser muito rápida
  • Recurso lançado no iOS e será integrado a mais ferramentas e apps do Google

Novo recurso no Snapseed permite seleção de objetos em tempo real no seu dispositivo

O Snapseed para iOS passa a oferecer o Object Brush, um recurso que permite selecionar e editar objetos na foto com um traço ou toque. O processamento é feito inteiramente no dispositivo pela nova versão do modelo Interactive Segmenter, que gera máscaras precisas em menos de 20 ms. A atualização começa a ser distribuída na próxima semana.

Como você usa o recurso

  • Toque ou arraste um traço sobre o objeto que você quer editar.
  • O modelo detecta o objeto inteiro e gera uma máscara.
  • Ajuste a seleção adicionando ou removendo áreas.
  • A edição é aplicada apenas à área selecionada.

Principais características técnicas

  • On-device: todo o processamento roda localmente, sem enviar imagens para servidores.
  • Interatividade: resposta em tempo real para testes e correções rápidas.
  • Aceleração por GPU: implementado com MediaPipe e LiteRT.
  • Resolução de máscara: previsões em 768x768 com upsampling até 4K.
  • Quantização: modelos finais rodando em 8 bits.
  • Latência do decoder: cerca de 7,4 ms em iPhone 16 Pro.

Arquitetura do modelo (visão geral)

  • O sistema separa o entendimento da imagem e o processamento de prompts do usuário.
  • Um encoder pesado é executado uma vez por imagem para extrair recursos semânticos.
  • Um decoder leve processa os traços e toques usando os recursos pré-computados.
  • Essa divisão mantém alta qualidade visual e baixa latência interativa.

Como o modelo foi treinado

  • Começaram com um modelo geral pré-treinado e o adaptaram para segmentação interativa.
  • Foram coletadas cerca de 30.000 máscaras de alta qualidade para 350 categorias.
  • Para ampliar o alcance, usaram um conjunto fraco com mais de 2 milhões de imagens e máscaras geradas automaticamente.
  • O modelo maior funcionou como teacher para gerar rótulos melhores durante a distilação.
  • Durante o treino, foram simulados prompts do usuário (rabiscos, pontos, caixas) para ensinar o modelo a reagir a entradas reais.

Benefícios e limitações

Benefícios:

  • Seleções mais precisas para pessoas, objetos e cenários.
  • Edição rápida e fluida sem depender da nuvem.
  • Compatível com fluxos de trabalho móveis comuns.

Limitações:

  • Máscaras originais na base fraca não são pixel-perfect.
  • O upsampling final é aplicado quando você solta o gesto, para reduzir latência.

Disponibilidade e próximos passos

  • Recurso integrado à ferramenta Adjust do Snapseed em iOS; lançamento gradual a partir da próxima semana.
  • A tecnologia também já foi incluída no Chromebook Plus 14, no app Gallery.
  • Planos incluem expandir o uso do Interactive Segmenter para mais ferramentas e produtos de edição de imagem.
  • Para detalhes técnicos e background do projeto, veja o anúncio original em https://research.google/blog/introducing-interactive-on-device-segmentation-in-snapseed/ — é a fonte técnica usada no desenvolvimento do recurso.

Destaques técnicos (lista)

  • Nome do recurso: Object Brush
  • Modelo: Interactive Segmenter (Teacher → Edge)
  • Inferência on-device: sim
  • Tempo de resposta: < 20 ms para seleção; 7,4 ms decoder em iPhone 16 Pro
  • Resolução de máscara prevista: 768x768 (upsampled até 4K)
  • Frameworks: MediaPipe, LiteRT
  • Quantização: 8 bits

Conclusão

Agora você sabe que o Object Brush do Snapseed coloca edição precisa na palma da sua mão. Toque, risque e o Interactive Segmenter roda on-device para gerar máscaras precisas em milésimos de segundo — é rápido, prático e preserva sua privacidade.

Funciona como um pincel inteligente: primeiro entende a cena, depois responde aos seus rabiscos. Resultado? Edições locais limpas, sem depender da nuvem. Há limites — algumas máscaras da base fraca não são perfeitas e o upsampling final acontece ao soltar o gesto — mas, na prática, a experiência é fluida e muito útil para quem edita no celular.

Quando chegar ao iOS, experimente. Brinque com toques e ajustes. Você vai perceber como pequenas correções transformam a foto. Para a descrição técnica completa e origem das ideias, consulte também https://research.google/blog/introducing-interactive-on-device-segmentation-in-snapseed/ — lá há detalhes sobre arquitetura, treinamento e resultados de desempenho.

Quer continuar explorando novidades assim? Confira mais artigos em https://blog.aidirectory.com.br ou leia novamente o anúncio técnico: https://research.google/blog/introducing-interactive-on-device-segmentation-in-snapseed/.

Perguntas Frequentes

  • O que é o Object Brush do Snapseed?
    É uma ferramenta que seleciona e edita objetos com um toque. Você risca ou toca e o Snapseed cria uma máscara do objeto.
  • Como eu uso na prática?
    Abra Ajustar > Object Brush. Toque ou trace sobre o objeto. Ajuste brilho, cor ou contraste apenas nele.
  • Precisa de internet? Funciona rápido no celular?
    Não precisa. O modelo roda todo no aparelho. A segmentação aparece em menos de 20 ms.
  • A seleção é precisa mesmo em bordas complexas?
    Sim. O modelo gera máscara em alta resolução e usa upsampling para manter contornos nítidos.
  • Em quais aparelhos e quando estará disponível?
    Começa no iOS em breve e vai chegar a mais ferramentas. Também já saiu no Chromebook Plus 14 no app Gallery.

Fonte técnica e leitura complementar: https://research.google/blog/introducing-interactive-on-device-segmentation-in-snapseed/.

Se você quiser conhecer outros artigos semelhantes a Agora você pode selecionar e editar objetos no seu celular com um toque no Snapseed, você pode visitar a categoria Dicas.

Go up