Você vai conhecer o modelo da Cisco que traz contexto multiresolução para observabilidade

5 meses ago · Updated 5 meses ago

voce-vai-conhecer-o-modelo-da-cisco-que-traz-contexto-multiresolucao-para-observabilidade
Table
  1. Ouça este artigo
  2. Cisco e Splunk lançam TSM, modelo para séries temporais focado em observabilidade
  3. Por que a multiresolução é importante
  4. Como o TSM processa dados
  5. Inovações arquiteturais
  6. Treinamento e base de dados
  7. Desempenho em benchmarks
  8. Conclusão
  9. Perguntas Frequentes

Ouça este artigo


Você vai ver como a Cisco, em parceria com a Splunk, lançou o Cisco Time Series Model conhecido como TSM, um modelo de código aberto pensado para métricas de observabilidade e segurança. O modelo trabalha sem necessidade de ajuste e combina históricos em multiresolução para prever melhor o comportamento dos seus dados. Está disponível no Hugging Face sob licença Apache permissiva. Esta matéria explica o que muda para o seu monitoramento e por que a abordagem de multiresolução importa no mundo real.

  • TSM é um modelo multirresolução para métricas de observabilidade e segurança
  • Usa contexto grosso e contexto fino juntos para melhorar previsões
  • Entrega previsões médias e intervalos (quantis) sem precisar de ajuste
  • Foi treinado com grande massa de dados e liberado de forma aberta no Hugging Face
  • Mostra melhoria clara em previsões com janelas de contexto longas

Cisco e Splunk lançam TSM, modelo para séries temporais focado em observabilidade

A Cisco, em parceria com a Splunk, liberou o Time Series Model (TSM). O modelo é open source e está disponível no Hugging Face sob a licença Apache 2.0. Foi criado para prever métricas de observabilidade e segurança sem fine-tuning específico para cada tarefa — uma proposta especialmente interessante quando se integra IA a sistemas de produção e defesa, como discutido em abordagens de monitoramento que mostram como usar agentes de IA ao lado dos seus serviços para conter ataques.

Mais detalhes técnicos e o anúncio original podem ser consultados em: https://www.marktechpost.com/2025/12/07/cisco-released-cisco-time-series-model-their-first-open-weights-foundation-model-based-on-decoder-only-transformer-architecture/

Por que a multiresolução é importante

Dados de produção exibem padrões em várias escalas: tendências semanais e sazonalidades aparecem em resoluções grossas; picos de tráfego e incidentes surgem em resoluções finas. Armazenamentos costumam manter apenas agregados antigos, o que exige modelos que usem contextos em múltiplas resoluções simultaneamente. Para lidar com contextos muito longos e preservar sinal relevante em escalas distintas, pesquisas recentes mostram técnicas e ferramentas para processar e decodificar janelas extensas de contexto, que se alinham com a proposta multirresolução do TSM (processamento de contextos muito mais longos).

  • Problema: modelos tradicionais usam uma única resolução e janelas curtas.
  • Impacto: para dados a cada minuto, a janela típica cobre poucas semanas.
  • Solução do TSM: combina histórico grosso e fino dentro da mesma entrada para capturar picos e tendências.

Como o TSM processa dados

O TSM aceita dois contextos simultâneos: coarse (grosso) e fine (fino). Cada contexto tem até 512 pontos. A distância entre pontos do contexto grosso é 60× a do contexto fino — na prática, por exemplo, 512 horas de agregados de 1 hora e 512 minutos de valores a cada minuto, ambos terminando no mesmo ponto de corte para previsão.

  • Saída: previsão de 128 pontos na resolução fina.
  • Formato: o modelo fornece média e quantis (de 0.1 a 0.9).

Essa gestão de diferentes granularidades remete a estratégias de memória de longo prazo e agregação temporal usadas por agentes e sistemas que precisam lembrar e correlacionar eventos ao longo de longos períodos, por exemplo em trabalhos sobre como modelos mantêm contexto por muito tempo (memória de longo prazo) e abordagens de memória persistente para agentes (memória persistente em SQL).

Inovações arquiteturais

O TSM parte de uma pilha decoder patch-based e introduz ajustes para lidar com múltiplas resoluções. A arquitetura tem cerca de 50 camadas decoder-only e evita embeddings posicionais tradicionais, usando ordenação de patches e embeddings de resolução.

  • Token Especial (ST): marca a separação entre os fluxos grosso e fino.
  • Embeddings de Resolução (RE): vetores distintos para tokens grossos e finos.
  • Decodificação: previsões finas geradas passo a passo atualizam ambos os contextos (auto-regressivo).

Esses elementos arquiteturais aproveitam mecanismos de atenção e variações da atenção para combinar sinais em diferentes escalas; se quiser entender melhor como a atenção transforma representações e quais mecanismos são usados em modelos modernos, veja as explicações sobre como a atenção transforma sua IA e aplicações práticas de mecanismos de atenção.

Relatórios de validação indicam que esses elementos melhoram a qualidade em janelas longas.

Treinamento e base de dados

O TSM foi criado a partir dos pesos do TimesFM e possui aproximadamente 500 milhões de parâmetros. O regime de treino usou otimizadores modernos e combinação de perdas para média e quantis, com cerca de 20 épocas e seleção do melhor ponto por perda de validação.

A base de dados reúne mais de 300 bilhões de pontos, incluindo:

  • ~35% de séries de observabilidade a cada 1 minuto (dados Splunk)
  • ~16.5% de dados a 5 minutos
  • ~29.5% de dados do pré-treinamento GIFT Eval
  • ~4.5% de conjuntos Chronos
  • ~14.5% de séries sintéticas KernelSynth

Gerenciar e acessar esse volume exige formatos e ferramentas eficientes para grandes dados; técnicas de particionamento, compressão e indexação de blocos são práticas recomendadas para bases tão grandes (uso de Zarr para grandes dados).

Desempenho em benchmarks

No conjunto de observabilidade a 1 minuto com 512 passos finos, o TSM reduziu o erro médio absoluto (MAE):

Modelo — MAE (1-min, 512 passos)

  • TimesFM 2.0 — 0.6315
  • TimesFM 2.5 — 0.6265
  • TSM — 0.4788
  • O TSM também mostrou melhorias em métricas como MASE e CRPS.
  • Em benchmarks gerais filtrados (GIFT Eval), manteve desempenho competitivo com os modelos base.
  • Concorrentes considerados incluem Chronos 2, Chronos Bolt, Toto e AutoARIMA; o TSM superou essas soluções em cargas de observabilidade com contexto longo.

Para quem planeja testar e colocar modelos desse tipo em produção, é útil combinar otimizações de runtime, quantização e ferramentas de aceleração que reduzem latência e custo ao rodar transformers em infraestruturas reais — há guias práticos sobre como otimizar modelos transformer ponta a ponta com Hugging Face, ONNX Runtime e quantização (otimização e quantização para deployment).

Conclusão

O TSM da Cisco com a Splunk é uma solução open source concebida para métricas de observabilidade e segurança. Ao combinar histórico fino e grosso em multiresolução, ele captura picos e tendências simultaneamente, fornece previsões prontas (média e quantis) e reduz erros sem a necessidade de fine-tuning extensivo. Está disponível no Hugging Face sob licença Apache 2.0 e merece um teste se seu objetivo é monitorar, diagnosticar e prever sem reinventar a roda.

Leia o anúncio técnico e mais detalhes em: https://www.marktechpost.com/2025/12/07/cisco-released-cisco-time-series-model-their-first-open-weights-foundation-model-based-on-decoder-only-transformer-architecture/

Curioso para aprofundar? Experimente o modelo no Hugging Face e confira artigos relacionados sobre integração e operações em tempo real no blog, por exemplo sobre como integrar IA a recursos em tempo real (integração de IA em tempo real) ou publicar e descobrir agentes com runtimes nativos (publicação e descoberta de agentes com runtimes nativos).

Perguntas Frequentes

  • O que é o Cisco Time Series Model (TSM)? É um modelo de séries temporais univariado e zero-shot, criado pela Cisco com dados da Splunk. Open source no Hugging Face, feito para métricas de observabilidade e segurança.
  • Como o TSM usa contexto multiresolução? Recebe dois contextos: fino e grosso. Cada um tem até 512 pontos; o grosso tem espaçamento 60× do fino, combinando histórico detalhado e agregado numa só janela.
  • Quais são os ganhos para observabilidade? Captura padrões longos e curtos ao mesmo tempo, melhora previsões de picos e tendências e reduz erros em datasets reais de observabilidade.
  • Onde encontro e qual a licença? Está público no Hugging Face, licença Apache 2.0. Pode ser usado e integrado sem fine-tuning para tarefas de previsão.
  • Como ele se saiu em benchmarks? Apresentou queda relevante no MAE em dados de 1 minuto (ex.: 0.6265 → 0.4788) e superou TimesFM e outros baselines em workloads de observabilidade.

Mais detalhes técnicos e o comunicado original: https://www.marktechpost.com/2025/12/07/cisco-released-cisco-time-series-model-their-first-open-weights-foundation-model-based-on-decoder-only-transformer-architecture/

Se você quiser conhecer outros artigos semelhantes a Você vai conhecer o modelo da Cisco que traz contexto multiresolução para observabilidade, você pode visitar a categoria Notícias e Tendências.

Go up