Métodos de reamostragem para estimar incerteza em finanças: do jackknife ao bootstrap e além
Reamostragem em finanças: quantificando viés, variância e intervalos confiáveis em métricas como max drawdown e VaR
Introdução
Estimativas em finanças sempre vêm acompanhadas de incerteza. Quantificar essa incerteza é crucial para avaliar a significância de resultados e orientar decisões. Abordagens clássicas costumam pressupor distribuições paramétricas (e.g. normalidade dos retornos) ou recorrem a fórmulas assintóticas; porém, no mundo real de dados financeiros frequentemente não-i.i.d. e com distribuições complexas, essas suposições podem falhar. Métodos de reamostragem funcionam, então, como ferramentas versáteis para inferência estatística sem depender estritamente de modelos paramétricos.
Neste artigo, exploramos em profundidade os principais métodos de reamostragem aplicados à estimação de incerteza em finanças, seguindo a trajetória histórica e conceitual desde o jackknife (décadas de 1940–50) até o bootstrap (final dos anos 1970) e chegando a desenvolvimentos modernos como o conformal prediction e o jackknife+. Discutiremos as origens do jackknife com Quenouille e Tukey, os fundamentos do bootstrap de Efron, aplicações práticas e extensões para séries temporais via bootstrap de blocos. Também serão examinadas propriedades estatísticas de viés, variância e consistência de cada método, suas suposições (i.i.d., estacionariedade, permutabilidade) e limitações. Por fim, concluiremos com implicações práticas e recomendações para analistas que queiram aplicar esses métodos.
O jackknife: origem e conceitos básicos
O jackknife é um dos primeiros métodos de reamostragem surgidos na estatística. Seu desenvolvimento inicial é creditado ao estatístico Maurice Quenouille, que em 1949 propôs uma técnica para reduzir o viés de estimadores ao dividir a amostra em partes. Em um trabalho de 1956, Quenouille refinou a ideia ao considerar sistematicamente deixar de fora parte dos dados na estimação (“leave-one-out”) e o objetivo principal era estimar e remover o viés de primeira ordem de um estimador. Posteriormente, em 1958, John Tukey expandiu a técnica, reconhecendo seu potencial mais amplo para inferência (como construção de intervalos de confiança) e batizando-a de jackknife – uma referência ao canivete multifuncional, destacando o caráter “quebra-galho” do método para diversas situações.
Como funciona? Dada uma amostra de tamanho n com observações x₁, x₂, …, xₙ e um estimador de interesse θ̂ = T(x₁, x₂, …, xₙ) (por exemplo, a média amostral, a variância ou mesmo um índice financeiro calculado sobre os dados), o jackknife procede recalculando o estimador múltiplas vezes, cada vez omitindo uma das observações. Denotemos por θ̂(-i) a estimativa calculada com a amostra completa exceto o i-ésimo dado. Assim, obtemos n versões “jackknife” do estimador: θ̂(-1), θ̂(-2),…,θ̂(-n). A média dessas estimativas reduzidas é
Com base nesses valores, definimos os pseudo-valores jackknife para cada i:
Intuitivamente, θ̃ representa uma “estimativa ajustada” de θ usando a informação da i-ésima omissão. A estimativa jackknife para o parâmetro pode então ser vista como a média dos pseudo-valores:
Notavelmente, essa estimativa jackknife para o parâmetro muitas vezes coincide numericamente com o θ̂ original para muitos estimadores comuns (como a média), mas a utilidade do jackknife está em avaliar viés e variância. Em particular, o viés estimado pelo jackknife pode ser obtido como:
Se o viés citado for significativo, podemos formar um estimador corrigido de viés:
o que remove o viés de primeira ordem caso o viés original seja O(1/n). Sob certas condições de suavidade, de fato, o jackknife elimina o termo de viés de ordem 1/n, tornando o viés residual da ordem de 1/n². Em outras palavras, a correção de Quenouille/Tukey produz um estimador quase não-viciado em larga escala, removendo o viés linear dominante. Essa propriedade foi um dos principais motivos para o desenvolvimento do jackknife.
Além do viés, o jackknife permite estimar a variância (ou erro-padrão) do estimador. Uma fórmula clássica para o estimador de variância jackknife é:
onde θ̂(-i) são as estimativas leave-one-out definidas antes. A justificativa vem do fato de que θ̂(-i) aproximam a distribuição do estimador θ̂ original (cada θ̂(-i) é análogo à amostra original sem um ponto). Assim, a dispersão desses valores fornece informação sobre a variabilidade de θ̂. A fórmula acima, em essência, multiplica a variância dos θ̂(-i) por um fator (n-1)/n para ajustar a correlação entre as amostras jackknife e a original. Essa estimativa é assintoticamente consistente sob condições usuais (quando n é grande e os dados são i.i.d.).
Tukey, ao introduzir o termo jackknife, enfatizou não só a correção de viés, mas também o uso dos pseudo-valores para inferência intervalar. Ele conjecturou que os pseudo-valores θ̃ᵢ poderiam ser tratados como aproximadamente i.i.d. em muitas situações, o que permitia construir uma estatística aproximada:
que seguiria aproximadamente uma distribuição t de Student com n-1 graus de liberdade. Com isso, seria possível construir intervalos de confiança para o parâmetro mesmo sem conhecer sua distribuição exata, usando a estimativa jackknife e a dispersão dos pseudo-valores. Na prática, esse resultado é heurístico – o jackknife não fornece a distribuição completa do estimador, apenas aproxima momentos (média, variância). Contudo, para muitos estimadores “bem-comportados” (especialmente estimadores aproximadamente lineares nas observações), o jackknife tem ótimo desempenho em termos de viés e fornece erros-padrão próximos aos verdadeiros.
Premissas e limitações: O jackknife, conforme apresentado, assume implicitamente que as observações são independentes e identicamente distribuídas (i.i.d.) ou pelo menos permutáveis (ou exchangeable, isto é, a ordem dos dados não importa para a distribuição conjunta). Em cenários de dependência forte (como séries temporais financeiras), aplicar o jackknife de forma ingênua pode levar a conclusões incorretas – por exemplo, deixar um dado de fora numa série altamente correlacionada pode não produzir uma estimativa substancialmente diferente, prejudicando a utilidade dos pseudo-valores. Além disso, nem todos os estimadores se prestam bem ao jackknife: quando o estimador não é uma função suave ou quando n é pequeno, as aproximações do jackknife podem ser pobres. Um caso clássico é o da mediana – o jackknife falha em estimar apropriadamente a variância da mediana em muitas distribuições, pois retirar uma observação pode não mudar a mediana (resultando em subestimação de variância). Em contrapartida, o bootstrap (que veremos a seguir) lida melhor com estimadores não-lineares.
Em resumo, o jackknife se destaca por sua simplicidade e apelo intuitivo: é um método determinístico (não envolve sorteio aleatório) e computacionalmente barato (requer n recálculos do estimador, viável mesmo para n moderadamente grande). Ele provê correção de viés de primeira ordem e uma estimativa de erro-padrão sem fórmulas complicadas. Essas vantagens fizeram do jackknife uma técnica padrão nas caixas de ferramenta estatísticas por décadas, e ele continua sendo útil para obter insights rápidos sobre a sensibilidade de estimativas a observações individuais (a ideia de “valor influente” em análise de regressão é intimamente ligada aos pseudo-valores jackknife).
Primeiro exemplo prático
Podemos tangibilizar esse método pelo cálculo do maximum drawdown (MDD). Suponha que você queira estimar o MDD “esperado” do Ibovespa em 12 meses. Tome os retornos mensais desde 2000, forme janelas móveis de 12 meses (passo de 1 mês) e, para cada janela, calcule o MDD. A média desses MDDs — o valor empírico — fica em torno de 16%.
Esse número, porém, não é adequado para prever o MDD esperado em uma janela 12 meses. Mesmo admitindo retornos mensais i.i.d., o funcional de drawdown é não linear, os extremos convergem lentamente e as janelas sobrepostas reduzem o tamanho amostral efetivo. Aplicando jackknife, obtemos evidência de viés para baixo e uma correção que leva a estimativa para cerca de 27%. O código de tal teste está em pq_resampling.
Para que esse viés fosse realmente eliminado, precisaríamos de um histórico muito maior, pois o número de blocos efetivamente independentes é pequeno (com ~25 anos de dados, há apenas ~25 janelas não sobrepostas de 12 meses), e o MDD depende de eventos raros de cauda. Alternativamente, é recomendável usar bootstrap por blocos, simular trajetórias a partir de um modelo ajustado (com volatilidade condicional) ou recorrer à teoria de valores extremos para perdas, sempre reportando intervalos de confiança além do ponto estimado.
O bootstrap de Efron: uma extensão estocástica
Nos anos 1970, a disponibilidade crescente de computadores possibilitou uma ideia revolucionária na estatística: por que não simular a incerteza de um estimador gerando muitas amostras reconstituídas a partir dos dados observados? Essa é a essência do bootstrap, introduzido por Bradley Efron em 1979. Em seu artigo seminal “Bootstrap Methods: Another Look at the Jackknife”, Efron apresentou o bootstrap como uma generalização aleatória do jackknife – de fato, mostrou que o jackknife pode ser visto como uma aproximação linear (de primeira ordem) do bootstrap. Enquanto o jackknife produz uma única correção baseada em deixar de fora cada observação uma vez, o bootstrap permite estimar toda a distribuição do estimador simulando inúmeras “novas amostras” a partir da amostra original.
Como funciona o bootstrap? Suponha novamente que temos dados x₁, x₂, …, xₙ e queremos estudar a distribuição de um estimador θ̂ = T(x₁, x₂, …, xₙ). O bootstrap clássico (não-paramétrico) procede assim: gera-se um número grande B de amostras de tamanho n com reposição a partir dos n dados originais. Cada amostra bootstrap é essencialmente como sortear n pontos dos dados originais com reposição, de modo que alguns pontos podem repetir e outros podem ficar de fora, imitando o processo de obter novas amostras da “população empírica” dos dados. Para cada amostra bootstrap b (onde b=1,2,…,B), computamos o estimador:
O resultado é uma coleção
que aproxima a distribuição amostral de θ̂. Com essa distribuição simulada em mãos, fica fácil estimar quantidades de interesse:
O viés pode ser estimado como
\(\widehat{\text{Viés}}_{\text{boot}} = \bar{\theta}^{*} - \hat{\theta}\)\(\bar{\theta}^{*} = \frac{1}{B}\sum_{b=1}^{B} \hat{\theta}^{*}_{b}\)O erro-padrão pode ser estimado pela desvio-padrão das replicações bootstrap:
\( \widehat{\mathrm{SE}}_{\text{boot}}(\hat{\theta}) = \sqrt{\frac{1}{B-1}\sum_{b=1}^{B} \left(\hat{\theta}^{*}_{b}-\bar{\theta}^{*}\right)^{2}} \)Intervalos de confiança podem ser construídos a partir dos percentis da distribuição bootstrap de θ̂ – por exemplo, um intervalo de 95% pode ser dado pelos quantis 2.5% e 97.5% dos θ̂. Existem aperfeiçoamentos, como intervalo percentil bias-corrected e BC (bias-corrected and accelerated), que ajustam o intervalo bootstrap usando estimativas de viés e de não-linearidade (aceleração) via jackknife, mas a ideia básica permanece: usar a distribuição empírica das replicações bootstrap como aproximação da distribuição real do estimador.
A beleza do bootstrap está em ser um procedimento não paramétrico e universal. Não precisamos supor que a média dos retornos é normal, ou que a estatística segue um teorema do limite central – podemos deixar que os dados “falem por si”. Sob condições relativamente gerais (dados i.i.d. de uma distribuição fixa e θ̂ uma estatística razoavelmente estável), pode-se demonstrar que conforme n → ∞ e B suficientemente grande, a distribuição empírica das replicações bootstrap converge para a verdadeira distribuição assintótica de θ̂ (o bootstrap é consistentemente válido). Em muitos casos, o bootstrap fornece aproximações melhores em amostras finitas do que os métodos assintóticos tradicionais, especialmente para estatísticas não-lineares ou complicadas.
Comparações com jackknife
O jackknife é determinístico: produz exatamente n subamostras deixando um ponto de fora em cada um. O bootstrap é estocástico: reamostra com reposição e, por isso, resultados variam entre execuções; aumentar B reduz essa variabilidade. O jackknife pode ser visto como caso particular do bootstrap quando se restringem os reamostramentos às n amostras “leave-one-out”.
Ambos assumem dados aproximadamente i.i.d. (ou ao menos permutáveis). No bootstrap simples, reamostrar livremente implica tratar cada observação como representativa da distribuição F e ignorar ordem/dependência. Em séries temporais com autocorrelação, isso falha; versões por blocos resolvem melhor o caso dependente.
Em custo computacional, o bootstrap exige recalcular o estimador B vezes. Com B na casa dos milhares e nnn moderado, isso costuma ser viável hoje; há acelerações e aproximações, mas a simplicidade prática do método frequentemente compensa.
Em síntese, ambos reamostram a própria amostra: o jackknife oferece diagnósticos rápidos de viés e variância com baixo custo, enquanto o bootstrap estima viés, variância e a distribuição completa do estimador, gerando intervalos de confiança mais robustos em cenários i.i.d.
Restrições e séries temporais: bootstrap de blocos
Em finanças, os dados costumam ser séries temporais, nas quais i.i.d. raramente vale: há memória de curto prazo, volatility clustering e persistência em juros, inflação e indicadores. Reamostrar pontos isolados de forma aleatória destrói essas dependências e produz incerteza enganosa.
O remédio clássico é o bootstrap de blocos: agrupa-se a série em blocos contíguos de comprimento L e reamostram-se blocos inteiros com reposição, preservando a autocorrelação até a ordem L−1. A escolha de L é um equilíbrio: blocos curtos perdem dependências relevantes; blocos longos reduzem combinações e aumentam viés/variância. Costuma-se escolher L com base na ACF ou por critérios que minimizam erro integrado.
Há variações: (i) blocos fixos não sobrepostos (sorteio entre blocos disjuntos), (ii) moving blocks (considera todos os blocos de tamanho L, com sobreposição), (iii) circular blocks (CBB), que “emenda” fim e início da série para evitar bordas, e (iv) bootstrap estacionário, que usa blocos de tamanho aleatório (p.ex., geométrico), tornando o método menos sensível à escolha de L. Todas visam replicar a correlação; o bootstrap i.i.d. falha quando há dependência.
Segundo exemplo prático
O código exemplo pq_resampling também estima o VaR 99% de uma janela (holding period) de 24 meses de retorno do Ibovespa, uma janela útil para ALM de fundos/seguradoras ou detentores de grandes posições. A estimativa é feita determinado intervalo de confiança (95%) utilizando a técnica de moving blocks com L=6, com os mesmos retornos utilizados para estimar o max drawdown por jackknife. O empírico obtido foi de -38%, mas corrigindo-o por bootstrap, levando em conta o viés, iria para aproximadamente -43%, com IC 95% entre aproximadamente -67% e -16%. Verificam-se ganhos da aplicação da técnica de reamostragem em relação à análise histórica empírica devido à elucidação do viés e do alto grau de incerteza em relação a essa métrica, considerando os dados utilizados.
Limitações e regras práticas
Além do L, muitos procedimentos assumem estacionariedade. Misturar blocos de regimes distintos (crise vs. calmaria) pode distorcer resultados; nesse caso, segmenta-se por regimes, aplica-se bootstrap condicional ou usa-se variações específicas.
Outra abordagem é o bootstrap de resíduos: ajusta-se um modelo (ARMA/GARCH), reamostram-se resíduos padronizados e gera-se a série via o modelo, preservando estrutura condicional de média/volatilidade. É semiparamétrico e depende da qualidade do ajuste.
Para obter resultados melhores, tente tornar os dados aproximadamente i.i.d. por transformação; se não, prefira métodos por blocos e escolha L alinhado a ciclos (p.ex., 5 dias para semanal, ~21 para mensal). Com dados anuais curtos e forte dependência, o jackknife pode ser mais viável, ou então modelos com bootstrap de resíduos.
Avanços modernos: conformal prediction e jackknife+
Além da inferência “estática” (viés/variância de parâmetros), surgiram técnicas para inferência preditiva que dispensam suposições fortes: conformal prediction e jackknife+. A ideia é construir intervalos de predição válidos mesmo com modelos potencialmente mal especificados, exigindo basicamente exchange”abilidade” (i.i.d. no caso simples).
Conformal Prediction (CP), de Vovk e colabs., gera intervalos (regressão) ou conjuntos (classificação) com cobertura marginal controlada (ex.: 90%), como um wrapper sobre qualquer modelo (regressão linear, RF, redes). Calcula “não-conformidades” no histórico e inclui para o novo ponto todos os valores que não pareçam anômalos face ao passado. As garantias são em média (marginais), não condicionais para cada x, podendo ser conservadoras quando o modelo base é fraco.
Jackknife+ corrige a subcobertura do leave-one-out ingênuo. Em vez de centrar o intervalo na previsão do modelo com todos os dados, treina vários modelos, cada um deixando um ponto de fora. Para o novo caso, obtém várias previsões e mede, para cada modelo, o erro no ponto omitido. Combina a previsão do novo caso com esse erro, formando muitos pares de limites; depois ordena esses candidatos e escolhe limites para atingir a cobertura desejada. Com dados permutáveis e algoritmos simétricos, garante cobertura válida em amostra finita, sendo confiável e geralmente eficiente.
Relevância em finanças: para prever VaR, retornos ou métricas de risco, CP fornece intervalos com cobertura controlada sem assumir normalidade; o jackknife+ dá intervalos válidos mesmo com black boxes, útil em cenários de stress e quando a calibração é incerta.
Complementaridade: CP/jackknife+ focam predição futura (intervalos de predição), enquanto jackknife/bootstrap clássicos tratam de parâmetros históricos (viés, erro-padrão, IC). Todos partilham a filosofia inaugurada por Quenouille/Tukey: extrair incerteza principalmente da amostra observada, minimizando dependência de suposições paramétricas.
Implicações práticas e recomendações
O artigo percorre dos primórdios da reamostragem à inferência moderna. O jackknife segue útil para avaliar sensibilidade a observações e obter viés/variância de modo plug-and-play. O bootstrap revolucionou a prática ao estimar viés, variância e intervalos diretamente dos dados, reduzindo dependência de suposições paramétricas. Em séries não i.i.d., variantes como bootstrap de blocos preservam dependências (causalidade, autocorrelação, volatilidade condicional). Aplicamos tais técnicas para entender métricas do Ibovespa e ilustramos por que medir incerteza é essencial para evitar conclusões ao acaso. Comentamos rapidamente sobre métodos recentes — Conformal Prediction e Jackknife+ — ampliam o foco para intervalos de predição com garantias de cobertura sob suposições fracas.
Lições práticas
Sempre estime a incerteza: reporte erros-padrão e ICs; para métricas sem distribuição conhecida (drawdown, VaR histórico), o bootstrap é o aliado natural.
Cheque suposições: com poucos dados, prefira jackknife; com dependência temporal, use blocos ou modelos + bootstrap de resíduos. Escolhas ruins geram intervalos estreitos demais (overconfidence) ou amplos demais.
Mescle métodos: compare jackknife e bootstrap; divergências sinalizam estimadores instáveis ou amostras pequenas.
Cuide dos dados: limpe faltantes/outliers; reamostragem amplifica peculiaridades.
Custo computacional: em finanças, n e B viáveis tornam o bootstrap preferível a fórmulas frágeis; se caro, ajuste L, reduza B ou considere Jackknife+ para predição.
Referências Bibliográficas
Barber, R. F., Candès, E. J., Ramdas, A., & Tibshirani, R. J. (2021). Predictive inference with the jackknife+. Annals of Statistics, 49(1), 486–507.
Efron, B. (1979). Bootstrap methods: another look at the jackknife. Annals of Statistics, 7(1), 1–26.
Efron, B., & Stein, C. (1981). The jackknife estimate of variance. Annals of Statistics, 9(3), 586–596.
Gammerman, A., Vovk, V., & Shafer, G. (2005). Algorithmic Learning in a Random World. Springer.
Künsch, H. R. (1989). The jackknife and the bootstrap for general stationary observations. Annals of Statistics, 17(3), 1217–1241.
Politis, D. N., & Romano, J. P. (1994). The stationary bootstrap. Journal of the American Statistical Association, 89(428), 1303–1313.
Quenouille, M. H. (1949). Problems in plane sampling. Annals of Mathematical Statistics, 20(3), 355–375.
Quenouille, M. H. (1956). Notes on bias in estimation. Biometrika, 43(3–4), 353–360.
Tukey, J. W. (1958). Bias and confidence in not-quite large samples. Annals of Mathematical Statistics, 29(2), 614 (resumo).