Agora você pode selecionar e editar objetos no seu celular com um toque no Snapseed
4 dias ago · Updated 4 dias ago

- Ouça este artigo
- Novo recurso no Snapseed permite seleção de objetos em tempo real no seu dispositivo
- Como você usa o recurso
- Principais características técnicas
- Arquitetura do modelo (visão geral)
- Como o modelo foi treinado
- Benefícios e limitações
- Disponibilidade e próximos passos
- Destaques técnicos (lista)
- Conclusão
- Perguntas Frequentes
Ouça este artigo
Você vai descobrir como o Object Brush do Snapseed facilita editar objetos na sua foto diretamente no seu aparelho. Basta tocar ou riscar para selecionar. O Interactive Segmenter roda no dispositivo e gera máscaras precisas rapidamente, deixando a edição mais simples e rápida. Experimente quando a função chegar ao iOS.
- Pincel de Objetos no Snapseed permite editar partes da foto com traço simples
- Segmentador interativo roda todo no aparelho para seleção rápida e precisa
- Modelo menor foi criado por distilação de um modelo maior usando muitos dados fracos
- Arquitetura separa entendimento da imagem e entrada do toque para ser muito rápida
- Recurso lançado no iOS e será integrado a mais ferramentas e apps do Google
Novo recurso no Snapseed permite seleção de objetos em tempo real no seu dispositivo
O Snapseed para iOS passa a oferecer o Object Brush, um recurso que permite selecionar e editar objetos na foto com um traço ou toque. O processamento é feito inteiramente no dispositivo pela nova versão do modelo Interactive Segmenter, que gera máscaras precisas em menos de 20 ms. A atualização começa a ser distribuída na próxima semana.
Como você usa o recurso
- Toque ou arraste um traço sobre o objeto que você quer editar.
- O modelo detecta o objeto inteiro e gera uma máscara.
- Ajuste a seleção adicionando ou removendo áreas.
- A edição é aplicada apenas à área selecionada.
Principais características técnicas
- On-device: todo o processamento roda localmente, sem enviar imagens para servidores.
- Interatividade: resposta em tempo real para testes e correções rápidas.
- Aceleração por GPU: implementado com MediaPipe e LiteRT.
- Resolução de máscara: previsões em 768x768 com upsampling até 4K.
- Quantização: modelos finais rodando em 8 bits.
- Latência do decoder: cerca de 7,4 ms em iPhone 16 Pro.
Arquitetura do modelo (visão geral)
- O sistema separa o entendimento da imagem e o processamento de prompts do usuário.
- Um encoder pesado é executado uma vez por imagem para extrair recursos semânticos.
- Um decoder leve processa os traços e toques usando os recursos pré-computados.
- Essa divisão mantém alta qualidade visual e baixa latência interativa.
Como o modelo foi treinado
- Começaram com um modelo geral pré-treinado e o adaptaram para segmentação interativa.
- Foram coletadas cerca de 30.000 máscaras de alta qualidade para 350 categorias.
- Para ampliar o alcance, usaram um conjunto fraco com mais de 2 milhões de imagens e máscaras geradas automaticamente.
- O modelo maior funcionou como teacher para gerar rótulos melhores durante a distilação.
- Durante o treino, foram simulados prompts do usuário (rabiscos, pontos, caixas) para ensinar o modelo a reagir a entradas reais.
Benefícios e limitações
Benefícios:
- Seleções mais precisas para pessoas, objetos e cenários.
- Edição rápida e fluida sem depender da nuvem.
- Compatível com fluxos de trabalho móveis comuns.
Limitações:
- Máscaras originais na base fraca não são pixel-perfect.
- O upsampling final é aplicado quando você solta o gesto, para reduzir latência.
Disponibilidade e próximos passos
- Recurso integrado à ferramenta Adjust do Snapseed em iOS; lançamento gradual a partir da próxima semana.
- A tecnologia também já foi incluída no Chromebook Plus 14, no app Gallery.
- Planos incluem expandir o uso do Interactive Segmenter para mais ferramentas e produtos de edição de imagem.
- Para detalhes técnicos e background do projeto, veja o anúncio original em https://research.google/blog/introducing-interactive-on-device-segmentation-in-snapseed/ — é a fonte técnica usada no desenvolvimento do recurso.
Destaques técnicos (lista)
- Nome do recurso: Object Brush
- Modelo: Interactive Segmenter (Teacher → Edge)
- Inferência on-device: sim
- Tempo de resposta: < 20 ms para seleção; 7,4 ms decoder em iPhone 16 Pro
- Resolução de máscara prevista: 768x768 (upsampled até 4K)
- Frameworks: MediaPipe, LiteRT
- Quantização: 8 bits
Conclusão
Agora você sabe que o Object Brush do Snapseed coloca edição precisa na palma da sua mão. Toque, risque e o Interactive Segmenter roda on-device para gerar máscaras precisas em milésimos de segundo — é rápido, prático e preserva sua privacidade.
Funciona como um pincel inteligente: primeiro entende a cena, depois responde aos seus rabiscos. Resultado? Edições locais limpas, sem depender da nuvem. Há limites — algumas máscaras da base fraca não são perfeitas e o upsampling final acontece ao soltar o gesto — mas, na prática, a experiência é fluida e muito útil para quem edita no celular.
Quando chegar ao iOS, experimente. Brinque com toques e ajustes. Você vai perceber como pequenas correções transformam a foto. Para a descrição técnica completa e origem das ideias, consulte também https://research.google/blog/introducing-interactive-on-device-segmentation-in-snapseed/ — lá há detalhes sobre arquitetura, treinamento e resultados de desempenho.
Quer continuar explorando novidades assim? Confira mais artigos em https://blog.aidirectory.com.br ou leia novamente o anúncio técnico: https://research.google/blog/introducing-interactive-on-device-segmentation-in-snapseed/.
Perguntas Frequentes
- O que é o Object Brush do Snapseed?
É uma ferramenta que seleciona e edita objetos com um toque. Você risca ou toca e o Snapseed cria uma máscara do objeto.
- Como eu uso na prática?
Abra Ajustar > Object Brush. Toque ou trace sobre o objeto. Ajuste brilho, cor ou contraste apenas nele.
- Precisa de internet? Funciona rápido no celular?
Não precisa. O modelo roda todo no aparelho. A segmentação aparece em menos de 20 ms.
- A seleção é precisa mesmo em bordas complexas?
Sim. O modelo gera máscara em alta resolução e usa upsampling para manter contornos nítidos.
- Em quais aparelhos e quando estará disponível?
Começa no iOS em breve e vai chegar a mais ferramentas. Também já saiu no Chromebook Plus 14 no app Gallery.
Fonte técnica e leitura complementar: https://research.google/blog/introducing-interactive-on-device-segmentation-in-snapseed/.
Se você quiser conhecer outros artigos semelhantes a Agora você pode selecionar e editar objetos no seu celular com um toque no Snapseed, você pode visitar a categoria Dicas.