Além do risco (parte 4): componentes latentes invariantes - o caroço no angu
Quando um único histórico engana: dependência de trajetória e componentes latentes
Introdução
É essencial que o analista de finanças quantitativas conheça os pressupostos embutidos em seus modelos. Em séries temporais e backtests, é comum trabalhar com uma única realização histórica sem compreender plenamente as relações causais ou o mecanismo gerador do processo; essa é, de fato, a abordagem usual para estimar parâmetros e produzir previsões. Mesmo quando métricas fora da amostra como a validação cruzada walk-forward indicam ótimo desempenho, pode surgir a ilusão de que o modelo é bem-comportado. Nem sempre é o caso. Mesmo em séries estacionárias, com distribuições aparentemente conhecidas, há armadilhas: ao estimar parâmetros com base em um histórico único, não se assume apenas estacionariedade; assume-se também ergodicidade, hipótese raramente verificável de forma robusta em economia e finanças.
Isso não significa que a prática esteja errada. Simplificações são inevitáveis, e muitas vezes necessárias, para decidir sob restrições de tempo e dados. O ponto é tratá-las como hipóteses de trabalho e explicitar corretamente as suposições adotadas como estacionariedade, ergodicidade e estabilidade estrutural. Além disso, deve-se abrir espaço para testar fragilidades tais como sensibilidade a janelas, buscar outros hiperparâmetros, investigar especificações alternativas para o problema e comunicar adequadamente sobre os limites de escopo do modelo.
Estacionário, mas não-ergódico
As falhas sistemáticas de previsão em finanças e economia não são meros acidentes estatísticos, mas reflexos de uma limitação fundamental: a presença de componentes latentes invariantes que violam o pressuposto de ergodicidade amplamente adotado em modelos econométricos.
Considere um processo aparentemente simples:
Onde:
εₜ ~ N(0, σ²) são choques aleatórios independentes
θ ~ N(μ(θ), σ(θ²)) é sorteado uma única vez no t=0 e permanece fixo para sempre
Este processo é estacionário: suas propriedades estatísticas não mudam no tempo:
E[Xₜ] = μ(θ) (constante)
Var(Xₜ) = σ(θ²) + σ² (constante)
Cov(Xₜ, X(t+h)) = σ(θ²) (constante para qualquer lag h)
Mas é não-ergódico porque:
Média de ensemble (através de todas as trajetórias possíveis): E[X] = μ(θ)
Média temporal (ao longo de uma trajetória específica): lim{T→∞} (1/T)Σ Xₜ = θ
Para uma trajetória onde θ = 2,5 foi sorteado, a média temporal convergirá para 2,5, não para μ(θ). O componente latente θ é "invariante": uma vez sorteado, condiciona toda a dinâmica futura daquela trajetória específica.
Em termos práticos: podemos observar um mercado com propriedades estatísticas estáveis ao longo do tempo, mas o que aprendemos com nossa história específica (onde um valor particular de θ foi realizado) não representa necessariamente o que aconteceria em outras realizações possíveis do mesmo processo.
O componente latente sorteado θ é estimável e persiste em nossa trajetória específica, permitindo previsões locais. O problema surge porque: (1) não conhecemos a distribuição de θ no processo gerador: nossa trajetória pode ser típica ou extrema; (2) não podemos generalizar para novos ativos ou regimes; (3) mudanças estruturais podem re-sortear θ sem aviso. É como sobreviver a roleta russa: sabemos que não morremos até agora, mas sem conhecer quantas balas existem no tambor, não podemos calcular o risco verdadeiro nem fazer inferências sobre outras armas.
Crucialmente, em um sistema não-ergódico, mesmo com séries temporais de décadas ou séculos, continuamos observando apenas uma única realização da componente latente. Obter mais dados da mesma trajetória não resolve o problema fundamental.
Esta dependência de trajetória manifesta-se de várias formas além da constante aditiva:
Coeficientes de persistência fixos: Em um AR(1), X(t) = ρX(t-1) + ε(t), onde ρ é sorteado uma vez (ex: ρ ~ U[0,5; 0,95])
Volatilidade estrutural: σ²estrutural sorteada no início e multiplicando toda a série
Regimes absorventes: Uma cadeia de Markov onde, uma vez em certo estado, permanece lá para sempre.
Parâmetros de reversão: Velocidade de reversão à média κ em processos Ornstein-Uhlenbeck fixa por trajetória.
Todos estes componentes latentes invariantes exercem influência permanente sobre toda a dinâmica futura, tornando previsões baseadas em dados históricos fundamentalmente não confiáveis, independentemente do tamanho da amostra temporal.
O problema da não-ergodicidade manifesta-se claramente em estratégias de investimento baseadas em médias históricas. Considere o desempenho do índice Nikkei: um investidor japonês calculando retornos médios desde 1950 obteria aproximadamente 10% ao ano até 1989. Mas após o pico de 1989, o índice levou 34 anos para recuperar seu valor nominal. Nesse caso, a média temporal de qualquer investidor individual que entrou próximo ao pico divergiu drasticamente da média de ensemble histórica.
Um exemplo ainda mais direto: considere um jogo de moeda onde você ganha 50% com cara e perde 40% com coroa. O valor esperado por rodada é positivo: 0,5 × 1,5 + 0,5 × 0,6 = 1,05 (ganho de 5%). Mas se você jogar repetidamente ao longo do tempo, sua riqueza converge para zero com probabilidade 1, pois a média geométrica é 0,95 (perda de 5% por rodada). Esta divergência entre a média aritmética (ensemble de muitos jogadores paralelos) e a média geométrica (experiência de um jogador ao longo do tempo) é a essência da não-ergodicidade em finanças. A média aritmética seduz, mas a média geométrica cobra.
A escolha limita a história
Entenda a ideia central: em economia, certas “calcificações fantasmas”, estruturas persistentes que não vemos diretamente, empurram o sistema para caminhos específicos e difíceis de reverter. Esses componentes latentes invariantes nascem de três forças que se reforçam: (i) dependência de trajetória (decisões passadas criam trilhos); (ii) trocas de regime (mudanças estruturais que realocam incentivos) e (iii) memória longa (o passado distante ainda pesa), que costuma violar as condições técnicas exigidas para que médias no tempo representem a média verdadeira do sistema.
QWERTY: como um detalhe vira destino
Nos anos 1870, as primeiras máquinas de escrever tinham barras de tipos que se chocavam quando duas letras próximas eram acionadas em sequência. A solução prática foi espalhar no teclado combinações frequentes (como th, he) para reduzir travamentos e aumentar a velocidade média. Surge daí o arranjo QWERTY, consolidado em modelos da Remington, que rapidamente ganhou escala (produção, assistência técnica, peças) e, sobretudo, gente treinada para digitar nesse padrão.
Esse é o ponto decisivo: quando escolas de datilografia, concursos, escritórios e depois o software replicam o mesmo layout, mudar fica caro. Você não troca apenas uma peça; precisa reeducar pessoas, reescrever manuais, alterar atalhos, refazer exames, adaptar mobiliário e fluxos de trabalho. Mesmo diante de alternativas possivelmente mais eficientes (como o Dvorak, proposto décadas depois), a rede de compatibilidades tais como máquinas, currículos, provas de proficiência, padrões de mercado etc, cria um lock-in. O QWERTY vira realidade material e cognitiva: está nas mãos, nos cursos, nas licenças de software, nos atalhos aprendidos de olhos fechados. É assim que um detalhe técnico vira destino instituído.
Casos análogos ajudam a ver o padrão: bitola ferroviária, reatores de água leve e VHS vs. Betamax. Em todos, pequenas vantagens iniciais + coordenação social geram um componente latente que condiciona o futuro. No nível macro, colônias também criaram estruturas autorreforçantes (inclusivas vs. extrativas) que perduram por séculos, definindo incentivos, direitos de propriedade e trajetórias de renda.
Incerteza knightiana versus risco quantificável
Frank Knight (1921) distinguiu entre risco (distribuições de probabilidade conhecidas) e incerteza (situações únicas onde classificação de instâncias é impossível). Davidson estendeu isso, argumentando que a incerteza knightiana envolve processos estocásticos não-ergódicos onde distribuições de probabilidade passadas e atuais calculadas não fornecem estimativas estatisticamente confiáveis sobre a probabilidade de eventos futuros.
Mervyn King e John Kay (2020) em Radical Uncertainty argumentam que a maioria das decisões econômicas importantes envolve incerteza radical em vez de risco quantificável. Eventos como a dissolução da União Soviética, o surgimento da Internet, ou a pandemia de COVID-19 não eram apenas improváveis, eram fundamentalmente imprevisíveis dentro de frameworks probabilísticos existentes. Estes eventos criam novos componentes latentes relativas a mudanças estruturais nas relações econômicas e que invalidam modelos baseados em dados pré-evento.
A distinção tem implicações profundas para modelagem. Como Joan Robinson (1980) enfatizou, economistas devem reconhecer que "é o tempo histórico em vez do tempo lógico que governa a realidade". Em tempo histórico, o passado é irrevogável e cria componentes latentes que condicionam, mas não determinam o futuro. Modelos que tratam o tempo como reversível ou simétrico, uma suposição implícita em muitos modelos de equilíbrio e que falham em capturar esta assimetria fundamental.
Pode-se provar ergodicidade com uma única série?
Não se pode provar empiricamente a ergodicidade usando apenas uma série temporal finita. Por quê? Essencialmente porque ergodicidade é uma propriedade assintótica ela se refere ao comportamento quando T tende ao infinito e uma única amostra finita nunca pode abranger todas as possíveis realizações ou estados de um processo estocástico.
Em termos práticos, é impossível ter certeza absoluta de que uma série é ergódica. Como coloca Sklar (1993), “na prática, nenhum processo pode ser conhecido por ser ergódico; mas assumir ergodicidade permite cálculos que de outra forma seriam intratáveis” (SKLAR, 1993 apud MILANOVIĆ, 2012). Ou seja, adotamos ergodicidade como hipótese de trabalho, não como algo que verificamos conclusivamente.
Podemos entender isso intuitivamente: para provar empiricamente que a média temporal converge para a média teórica, precisaríamos observar a série por um tempo infinitamente longo. Com dados finitos, o máximo que conseguimos são evidências indiretas. Testes estatísticos podem rejeitar certas formas de dependência de longo prazo ou não estacionariedade, o que sugere, mas não prova ergodicidade.
Por exemplo, se dividirmos a série em duas metades e encontrarmos médias muito discrepantes, isso viola a expectativa de ergodicidade, pois ergodicidade implica que qualquer pedaço grande o suficiente da série deve dar estatísticas similares. Entretanto, mesmo se as metades derem médias similares, não há garantia absoluta, pois pode ser sorte ou o período de amostra pode não ter capturado certas condições raras.
Em resumo, ergodicidade é uma premissa não verificável de forma conclusiva em amostras finitas. O que se faz na prática é assumir ergodicidade sob certas condições plausíveis e então verificar a consistência dessa premissa (HAMILTON, 1994; SKLAR, 1993). Caso os dados aparentem violar fortemente as implicações da ergodicidade, por exemplo, exibindo padrões persistentes de mudança de média ou de distribuição, a premissa é revista.
Condições de mixing: garantias teóricas
Embora não possamos provar empiricamente que uma série é ergódica com certeza, a teoria fornece condições suficientes, mas não necessárias, que garantem a ergodicidade de um processo. Em particular, as chamadas condições de mixing (mistura) desempenham esse papel. Mixing é um termo técnico que descreve a ideia de que valores do processo muito distantes no tempo tornam-se praticamente independentes (WHITE, 2001).
Há vários níveis de mixing (α-mixing, φ-mixing, entre outros), mas, de modo geral, se as dependências ao longo do tempo decaem suficientemente rápido, o processo esquece seu estado inicial e satisfaz os requisitos para o teorema ergódico de Birkhoff (BILLINGSLEY, 1995).
Em termos práticos, se a autocovariância γ(τ) tende a zero quando o intervalo de tempo aumenta τ, o processo tem “memória curta” e tende a ser ergódico. Por exemplo, um ruído branco (sequência de retornos i.i.d.) apresenta autocovariâncias nulas em lags maiores que zero, satisfazendo fortemente as condições de mixing. De fato, ruído branco é ergódico para todos os momentos.
Mesmo processos dependentes, como um AR(1) estacionário, um modelo autoregressivo de primeira ordem com raiz característica (|φ₁|<1), satisfazem condição de mixing: à medida que τ→∞, Corr(Xₜ, X(t+τ)) → 0. Consequentemente, esse AR(1) é ergódico.
A garantia teórica só vale para o seu caso prático quando está demonstrado que o processo gerador de dados coincide com o modelo para o qual a condição de mixing foi provada (por exemplo, um AR(1) estacionário). Isso requer conhecimento substantivo do sistema e de suas relações causais e, com dados finitos, raramente é verificável de forma conclusiva. Por isso, convém enunciar como garantia condicional: “se o gerador do processo for, de fato, AR(1) com raiz característica, então a série é ergódica”.
Do ponto de vista teórico, uma condição suficiente simples para ergodicidade na média é que a soma das autocovariâncias em módulo seja finita (BROCKWELL; DAVIS, 2002):
Isso garante que as correlações de longo alcance são fracas o bastante para que a Lei Forte dos Grandes Números se aplique à média temporal (mean-ergodicidade). Condições de mixing geralmente são mais fortes que apenas estacionariedade e garantem também outros resultados assintóticos, como Teoremas do Limite Central para séries dependentes (DOUKHAN, 1994). Em resumo, teoricamente asseguramos ergodicidade impondo condições de independência assintótica: se o processo “se mistura” bem, as médias temporais convergem às médias populacionais.
Fechando os pontos
Deve-se destacar que o componente latente invariante não é um inimigo irreconhecível e misterioso. Ele pode ser estimado e filtrado em diferentes abordagens que não serão descritas neste artigo. O importante é entender que a limitação fundamental que a sua estimativa representa:
Com múltiplas trajetórias, sua estimativa informa tanto sobre as componentes individuais quanto sobre o processo geral de mistura.
Com uma única trajetória, sua estimativa informa apenas sobre a componente específica que você teve a sorte (ou o azar) de observar. O processo de mistura mais amplo, o verdadeiro reflexo da incerteza sobre todos os caminhos possíveis que a história poderia ter tomado, permanece para sempre fora do seu alcance.
Portanto, você pode filtrar o componente da sua história, mas não pode usar essa informação para fazer inferências probabilísticas sobre outras histórias que poderiam ter acontecido. A incerteza knightiana sobre o futuro permanece porque você nunca saberá se a sua trajetória é representativa de um conjunto maior ou apenas um caso idiossincrático.
Até mais!
Referências Principais
ACEMOGLU, D.; ROBINSON, J. (2012). Why Nations Fail. Crown Publishers.
ARTHUR, W. B. (1994). Increasing Returns and Path Dependence in the Economy. University of Michigan Press.
BALDWIN, R.; KRUGMAN, P. (1989). Persistent Trade Effects of Large Exchange Rate Shocks. Quarterly Journal of Economics.
BILLINGSLEY, P. Probability and Measure. 3ª ed. New York: Wiley, 1995.
BLANCHARD, O.; SUMMERS, L. (1986). Hysteresis and the European Unemployment Problem. NBER Macroeconomics Annual.
BOLLERSLEV, T. Generalized Autoregressive Conditional Heteroskedasticity. Journal of Econometrics, v.31, n.3, p.307–327, 1986.
BROCKWELL, P. J.; DAVIS, R. A. Introduction to Time Series and Forecasting. 2ª ed. New York: Springer, 2002.
DAVID, P. (1985). Clio and the Economics of QWERTY. American Economic Review.
DAVIDSON, P. (1982). Rational Expectations: A Fallacious Foundation for Studying Crucial Decision-Making Processes. Journal of Post Keynesian Economics.
DAVIDSON, P. (1996). Reality and Economic Theory. Journal of Post Keynesian Economics.
DIXIT, A.; PINDYCK, R. (1994). Investment under Uncertainty. Princeton University Press.
DOUKHAN, P. Mixing: Properties and Examples. New York: Springer, 1994.
FIROUZI, K. (2022). Log-ergodicity: A New Concept for Modeling Financial Markets. arXiv preprint.
GABAIX, X. (2009). Power Laws in Economics and Finance. Annual Review of Economics.
GÓMEZ-ÁGUILA, A.; TRINIDAD-SEGOVIA, J.E.; SÁNCHEZ-GRANERO, M.A. (2022). Improvement in Hurst exponent estimation and its application to financial markets. Financial Innovation.
GROSSMAN, S.; STIGLITZ, J. (1980). On the Impossibility of Informationally Efficient Markets. American Economic Review.
HAMILTON, J. D. Time Series Analysis. Princeton: Princeton University Press, 1994.
KING, M.; KAY, J. (2020). Radical Uncertainty: Decision-Making Beyond the Numbers. W.W. Norton.
KNIGHT, F. (1921). Risk, Uncertainty and Profit. Houghton Mifflin.
LO, A. (2004). The Adaptive Markets Hypothesis: Market Efficiency from an Evolutionary Perspective. Journal of Portfolio Management.
MANDELBROT, B. (1963). The Variation of Certain Speculative Prices. Journal of Business.
MANDELBROT, B.; HUDSON, R. (2004). The (Mis)Behavior of Markets. Basic Books.
MORETTIN, P. A.; TOLOI, C. M. C. Análise de Séries Temporais. 2ª ed. São Paulo: Blucher, 2006.
NELSON, R.; WINTER, S. (1982). An Evolutionary Theory of Economic Change. Harvard University Press.
PETERS, O.; ADAMOU, A. (2015). Insurance makes wealth grow faster. arXiv preprint.
PETERS, O. (2019). The ergodicity problem in economics. Nature Physics.
ROBINSON, J. (1980). Time in Economic Theory. Kyklos.
SKLAR, L. Physics and Chance: Philosophical Issues in the Foundations of Statistical Mechanics. Cambridge: Cambridge University Press, 1993.
VIEIRA, F. J. A. Macroeconometria – Séries de Tempo (Notas de Aula). ENAP, Brasília, 2020. (Disponível online).
WHITE, H. Asymptotic Theory for Econometricians. Academic Press, 2001.

