O mês estava quase fechando quando os números não fecharam.
Era uma operação de call center. Como em todo início de mês, a fornecedora enviava as metas para o período seguinte. Volume esperado, indicadores de qualidade, parâmetros de performance por coordenador, por supervisor, por agente. Rotina. Nada de diferente. Só que naquele mês, algo havia mudado na operação. Uma reestruturação da fornecedora alterou integralmente a composição do time. E no meio dessa transição, na hora de calcular a meta do mês seguinte, alguém usou como base de cálculo apenas um dia de resultado da operação. Um único dia. A meta foi calculada, ajustada com o desafio percentual padrão, e entrou no sistema como se fosse válida.
O que a meta dizia e o que a operação entregava
Na metodologia que usávamos, a meta mensal é calculada a partir da performance histórica da operação, com um acréscimo de desafio. É uma lógica justa quando a base está correta. Quando a base está errada, o desafio vira penalidade. Um único dia de resultado não representa nada. Pode ter sido o melhor dia do mês. O pior. Um dia de baixo volume. Um dia atípico por qualquer razão. A média histórica existe exatamente para eliminar essas distorções — e ela foi ignorada. O resultado: a operação começou o mês perseguindo uma meta que não tinha relação com a sua capacidade real. E a cada semana que passava, o desvio acumulava.
Como o modelo identificou o problema
Eu mantinha um modelo de recálculo de metas construído com base nos mesmos critérios da fornecedora — performance histórica, ajuste de desafio, sazonalidade. Todo mês eu cruzava o que recebia com o que o modelo calculava. Quando as metas do mês chegaram, rodei o cruzamento. O desvio foi imediato e alto demais para ser variação normal. O modelo apontava uma meta X. A fornecedora havia enviado uma meta significativamente maior. Fui investigar a origem do cálculo. Foi aí que encontrei: a base de cálculo usada tinha apenas um dia de histórico. Um erro de referência na extração dos dados. Simples assim. Sem má-fé. Sem sabotagem. Só um dado errado na entrada — e uma meta completamente descalibrada na saída.
O impacto que quase não foi visto
Sem o modelo de recálculo, esse desvio passaria o mês inteiro despercebido. A operação seria avaliada contra uma meta impossível. Os indicadores de performance ficariam negativos. Os profissionais seriam penalizados. O cliente receberia um relatório mostrando uma operação "abaixo da meta" — que na prática estava entregando exatamente o que sempre havia entregado. E no fechamento financeiro do mês, a penalidade seria aplicada: R$ 463.580,00. Não por má performance. Por uma meta errada que ninguém teria como questionar sem os dados certos.
O que aconteceu depois
Com a evidência do modelo em mãos, levei o caso para a operação. O cálculo estava documentado, o erro estava rastreado, o impacto estava quantificado. A operação foi anistiada no mês do penalti. O valor foi recuperado integralmente. Não foi uma negociação. Foi uma demonstração. Os dados falaram mais alto do que qualquer argumento.
O framework que tornou isso possível
Esse case não foi sorte. Foi metodologia. Três elementos tornaram possível identificar e resolver o problema:
- Modelo paralelo de validação Nunca confie cegamente em dados que vêm de fora. Tenha seu próprio cálculo. Mesmo que seja mais simples, ele precisa existir para funcionar como controle. Quando a entrada está errada, só um modelo paralelo consegue mostrar o desvio.
- Rastreabilidade da origem Saber que a meta estava errada não seria suficiente. Era preciso saber por que estava errada e onde o erro entrou. Isso só é possível quando o processo de cálculo é transparente e documentado. Sem rastreabilidade, você tem uma suspeita. Com ela, você tem evidência.
- Quantificação do impacto antes da conversa Levar o problema para a mesa sem o número não funciona. "A meta parece errada" abre debate. "A meta errada vai gerar um penalti de R$463 mil" fecha o debate. O impacto financeiro quantificado transforma uma percepção em urgência.
Conclusão
Dados protegem quem os usa bem. Nesse caso, o modelo não descobriu uma fraude. Descobriu um erro — o tipo que acontece em qualquer operação grande, sem intenção, sem visibilidade. E que, sem os dados certos, simplesmente passa. O retorno desse trabalho não estava em nenhum relatório de performance. Estava nos R$463 mil que ficaram na operação onde deveriam estar.

0 comentários
Faça login para comentar