Você vai conhecer o modelo da Cisco que traz contexto multiresolução para observabilidade
5 meses ago · Updated 5 meses ago

Ouça este artigo
Você vai ver como a Cisco, em parceria com a Splunk, lançou o Cisco Time Series Model conhecido como TSM, um modelo de código aberto pensado para métricas de observabilidade e segurança. O modelo trabalha sem necessidade de ajuste e combina históricos em multiresolução para prever melhor o comportamento dos seus dados. Está disponível no Hugging Face sob licença Apache permissiva. Esta matéria explica o que muda para o seu monitoramento e por que a abordagem de multiresolução importa no mundo real.
- TSM é um modelo multirresolução para métricas de observabilidade e segurança
- Usa contexto grosso e contexto fino juntos para melhorar previsões
- Entrega previsões médias e intervalos (quantis) sem precisar de ajuste
- Foi treinado com grande massa de dados e liberado de forma aberta no Hugging Face
- Mostra melhoria clara em previsões com janelas de contexto longas
Cisco e Splunk lançam TSM, modelo para séries temporais focado em observabilidade
A Cisco, em parceria com a Splunk, liberou o Time Series Model (TSM). O modelo é open source e está disponível no Hugging Face sob a licença Apache 2.0. Foi criado para prever métricas de observabilidade e segurança sem fine-tuning específico para cada tarefa — uma proposta especialmente interessante quando se integra IA a sistemas de produção e defesa, como discutido em abordagens de monitoramento que mostram como usar agentes de IA ao lado dos seus serviços para conter ataques.
Mais detalhes técnicos e o anúncio original podem ser consultados em: https://www.marktechpost.com/2025/12/07/cisco-released-cisco-time-series-model-their-first-open-weights-foundation-model-based-on-decoder-only-transformer-architecture/
Por que a multiresolução é importante
Dados de produção exibem padrões em várias escalas: tendências semanais e sazonalidades aparecem em resoluções grossas; picos de tráfego e incidentes surgem em resoluções finas. Armazenamentos costumam manter apenas agregados antigos, o que exige modelos que usem contextos em múltiplas resoluções simultaneamente. Para lidar com contextos muito longos e preservar sinal relevante em escalas distintas, pesquisas recentes mostram técnicas e ferramentas para processar e decodificar janelas extensas de contexto, que se alinham com a proposta multirresolução do TSM (processamento de contextos muito mais longos).
- Problema: modelos tradicionais usam uma única resolução e janelas curtas.
- Impacto: para dados a cada minuto, a janela típica cobre poucas semanas.
- Solução do TSM: combina histórico grosso e fino dentro da mesma entrada para capturar picos e tendências.
Como o TSM processa dados
O TSM aceita dois contextos simultâneos: coarse (grosso) e fine (fino). Cada contexto tem até 512 pontos. A distância entre pontos do contexto grosso é 60× a do contexto fino — na prática, por exemplo, 512 horas de agregados de 1 hora e 512 minutos de valores a cada minuto, ambos terminando no mesmo ponto de corte para previsão.
- Saída: previsão de 128 pontos na resolução fina.
- Formato: o modelo fornece média e quantis (de 0.1 a 0.9).
Essa gestão de diferentes granularidades remete a estratégias de memória de longo prazo e agregação temporal usadas por agentes e sistemas que precisam lembrar e correlacionar eventos ao longo de longos períodos, por exemplo em trabalhos sobre como modelos mantêm contexto por muito tempo (memória de longo prazo) e abordagens de memória persistente para agentes (memória persistente em SQL).
Inovações arquiteturais
O TSM parte de uma pilha decoder patch-based e introduz ajustes para lidar com múltiplas resoluções. A arquitetura tem cerca de 50 camadas decoder-only e evita embeddings posicionais tradicionais, usando ordenação de patches e embeddings de resolução.
- Token Especial (ST): marca a separação entre os fluxos grosso e fino.
- Embeddings de Resolução (RE): vetores distintos para tokens grossos e finos.
- Decodificação: previsões finas geradas passo a passo atualizam ambos os contextos (auto-regressivo).
Esses elementos arquiteturais aproveitam mecanismos de atenção e variações da atenção para combinar sinais em diferentes escalas; se quiser entender melhor como a atenção transforma representações e quais mecanismos são usados em modelos modernos, veja as explicações sobre como a atenção transforma sua IA e aplicações práticas de mecanismos de atenção.
Relatórios de validação indicam que esses elementos melhoram a qualidade em janelas longas.
Treinamento e base de dados
O TSM foi criado a partir dos pesos do TimesFM e possui aproximadamente 500 milhões de parâmetros. O regime de treino usou otimizadores modernos e combinação de perdas para média e quantis, com cerca de 20 épocas e seleção do melhor ponto por perda de validação.
A base de dados reúne mais de 300 bilhões de pontos, incluindo:
- ~35% de séries de observabilidade a cada 1 minuto (dados Splunk)
- ~16.5% de dados a 5 minutos
- ~29.5% de dados do pré-treinamento GIFT Eval
- ~4.5% de conjuntos Chronos
- ~14.5% de séries sintéticas KernelSynth
Gerenciar e acessar esse volume exige formatos e ferramentas eficientes para grandes dados; técnicas de particionamento, compressão e indexação de blocos são práticas recomendadas para bases tão grandes (uso de Zarr para grandes dados).
Desempenho em benchmarks
No conjunto de observabilidade a 1 minuto com 512 passos finos, o TSM reduziu o erro médio absoluto (MAE):
Modelo — MAE (1-min, 512 passos)
- TimesFM 2.0 — 0.6315
- TimesFM 2.5 — 0.6265
- TSM — 0.4788
- O TSM também mostrou melhorias em métricas como MASE e CRPS.
- Em benchmarks gerais filtrados (GIFT Eval), manteve desempenho competitivo com os modelos base.
- Concorrentes considerados incluem Chronos 2, Chronos Bolt, Toto e AutoARIMA; o TSM superou essas soluções em cargas de observabilidade com contexto longo.
Para quem planeja testar e colocar modelos desse tipo em produção, é útil combinar otimizações de runtime, quantização e ferramentas de aceleração que reduzem latência e custo ao rodar transformers em infraestruturas reais — há guias práticos sobre como otimizar modelos transformer ponta a ponta com Hugging Face, ONNX Runtime e quantização (otimização e quantização para deployment).
Conclusão
O TSM da Cisco com a Splunk é uma solução open source concebida para métricas de observabilidade e segurança. Ao combinar histórico fino e grosso em multiresolução, ele captura picos e tendências simultaneamente, fornece previsões prontas (média e quantis) e reduz erros sem a necessidade de fine-tuning extensivo. Está disponível no Hugging Face sob licença Apache 2.0 e merece um teste se seu objetivo é monitorar, diagnosticar e prever sem reinventar a roda.
Leia o anúncio técnico e mais detalhes em: https://www.marktechpost.com/2025/12/07/cisco-released-cisco-time-series-model-their-first-open-weights-foundation-model-based-on-decoder-only-transformer-architecture/
Curioso para aprofundar? Experimente o modelo no Hugging Face e confira artigos relacionados sobre integração e operações em tempo real no blog, por exemplo sobre como integrar IA a recursos em tempo real (integração de IA em tempo real) ou publicar e descobrir agentes com runtimes nativos (publicação e descoberta de agentes com runtimes nativos).
Perguntas Frequentes
- O que é o Cisco Time Series Model (TSM)? É um modelo de séries temporais univariado e zero-shot, criado pela Cisco com dados da Splunk. Open source no Hugging Face, feito para métricas de observabilidade e segurança.
- Como o TSM usa contexto multiresolução? Recebe dois contextos: fino e grosso. Cada um tem até 512 pontos; o grosso tem espaçamento 60× do fino, combinando histórico detalhado e agregado numa só janela.
- Quais são os ganhos para observabilidade? Captura padrões longos e curtos ao mesmo tempo, melhora previsões de picos e tendências e reduz erros em datasets reais de observabilidade.
- Onde encontro e qual a licença? Está público no Hugging Face, licença Apache 2.0. Pode ser usado e integrado sem fine-tuning para tarefas de previsão.
- Como ele se saiu em benchmarks? Apresentou queda relevante no MAE em dados de 1 minuto (ex.: 0.6265 → 0.4788) e superou TimesFM e outros baselines em workloads de observabilidade.
Mais detalhes técnicos e o comunicado original: https://www.marktechpost.com/2025/12/07/cisco-released-cisco-time-series-model-their-first-open-weights-foundation-model-based-on-decoder-only-transformer-architecture/
Se você quiser conhecer outros artigos semelhantes a Você vai conhecer o modelo da Cisco que traz contexto multiresolução para observabilidade, você pode visitar a categoria Notícias e Tendências.
