Skip to content

DoubleChecker e o ganho de escala na base da coleta

Gemini_Generated_Image_h58alzh58alzh58a

Industry

Financial Services

Challenge

A revisão de mapas de tagueamento consumia horas de analistas seniores em uma operação que dependia de precisão técnica, ritmo de entrega e consistência de taxonomia. O processo era manual, sujeito a fadiga e insuficiente para acompanhar o volume crescente de demandas digitais.

Results

A solução reduziu em 78% o tempo de validação, derrubou em 95% os erros de taxonomia e permitiu que a revisão passasse a acontecer já no primeiro dia da sprint, sem aquisição de novas plataformas.

DoubleChecker

DoubleChecker

78%
Redução no tempo de validação
95%
Queda nos erros de taxonomia
D+0
Validação no primeiro dia da sprint
R$0
Eficiência sem novo custo de software

“A qualidade da coleta começa antes da implementação. Quando a revisão técnica deixa de depender só de esforço humano, a operação ganha consistência logo na origem.”

Gerente de Digital Analytics e Martech

Serviços financeiros

Gemini_Generated_Image_csuz1scsuz1scsuz

Uma operação em que a base do dado precisa nascer certa

A operação pertence a um banco com alta demanda digital e forte dependência de estruturas de coleta bem especificadas para sustentar analytics, produto, mídia e leitura de performance. Nesse ambiente, o mapa de tagueamento não é documento acessório. Ele é parte da infraestrutura que sustenta a confiabilidade do dado.

Quando a escala de entregas aumenta, pequenos erros na especificação deixam de ser detalhes. Eles se transformam em ruído analítico, retrabalho técnico e atraso operacional em cascata.

 Onde a operação travava 

O problema não estava na falta de conhecimento técnico. Estava no desperdício dele.

A validação dos mapas de coleta dependia de leitura manual detalhada em documentos técnicos, com analistas seniores dedicando parte relevante da sprint a procurar inconsistências de nomenclatura, ausência de parâmetros e desvios de taxonomia. Era um trabalho importante, mas repetitivo, lento e exposto à fadiga.

Esse modelo gerava um primeiro custo, menos visível e mais estrutural: especialistas de alta performance alocados em uma rotina de conferência em vez de atuarem sobre desenho analítico, priorização e inteligência. O segundo custo aparecia na qualidade. Quando erros passavam despercebidos nessa etapa, a falha só surgia depois, já na implementação ou no uso dos dados, com retrabalho maior e mais caro. O terceiro custo recaía sobre o fluxo. Como a revisão dependia de tempo humano disponível, a sprint acumulava fila e perdia cadência.

O gargalo, portanto, não era apenas de produtividade. Era de sustentabilidade operacional. A qualidade da base analítica estava sendo protegida por esforço manual contínuo, e isso limitava escala.

 Validação técnica no ponto exato do atrito 

A resposta foi inserir inteligência diretamente no lugar onde o problema acontecia.

A MATH desenvolveu o DoubleChecker como uma automação leve, acionável no próprio ambiente de documentação, sem exigir instalação de software, contratação de plataforma ou espera por aprovações longas de infraestrutura. A lógica foi simples na superfície e precisa na execução: transformar o navegador em camada de validação.

O recurso foi implementado via bookmarklet. Ao ser acionado, o script lia a estrutura da página no Confluence, interpretava as tabelas do mapa de tagueamento e cruzava aquele conteúdo com regras já mapeadas de taxonomia e negócio. Em vez de depender de leitura integral e comparação manual, a operação passou a contar com checagem automatizada em tempo real.

A validação funcionava como um linter de documentação. Erros de preenchimento, ausência de parâmetros, desvios de formatação e inconsistências taxonômicas eram destacados visualmente na própria interface. Isso encurtou o caminho entre detectar o problema e corrigi-lo.

A arquitetura foi desenhada de forma modular, permitindo atualização rápida das regras sem reestruturação complexa. Com a evolução do ambiente do cliente para Confluence Cloud, a mesma inteligência pôde ser portada para outros formatos, como extensão de navegador ou integração por API, preservando o núcleo lógico já validado.

O projeto também deixou aberta uma camada futura de evolução: o uso de agentes de IA para apoiar não apenas a checagem, mas também a redação inicial das especificações técnicas. A base, porém, já foi resolvida no ponto mais crítico: reduzir atrito entre documentação e governança.

 A automação não substituiu critério técnico. Ela retirou da rotina humana a parte repetitiva da validação para preservar energia analítica no que realmente exige interpretação. 

 O que mudou na prática 

O primeiro efeito foi tempo. A validação teve redução de 78%, convertendo horas de revisão manual em minutos de processamento. O que antes ocupava até 10 horas por sprint passou a consumir uma fração desse esforço, liberando capacidade para atividades mais estratégicas.

O segundo efeito foi qualidade. A queda de 95% nos erros de taxonomia fortaleceu a consistência da coleta antes da implementação. Isso reduziu retrabalho, protegeu a integridade do dado e melhorou a confiabilidade das estruturas enviadas para desenvolvimento.

O terceiro efeito foi ritmo operacional. Com a validação ocorrendo em D+0, a sprint perdeu um ponto relevante de espera. A checagem deixou de ser etapa que interrompia fluxo e passou a funcionar como mecanismo de aceleração com governança.

O quarto efeito foi econômico. Tudo isso foi entregue sem custo adicional de licenciamento, aproveitando a stack existente e mostrando que eficiência operacional relevante pode vir mais da precisão da engenharia do que da expansão de ferramenta.

O DoubleChecker reorganizou uma etapa silenciosa, mas decisiva, da cadeia analítica. Ao fortalecer a base da coleta, a operação ganhou mais fluidez para entregar e mais confiança para escalar.

Sua operação ainda usa tempo especialista para revisar o que já poderia nascer validado?