Distribuição de valores extremos: da resistência do algodão às finanças quantitativas (parte 1)
Fios de algodão, caudas pesadas: a jornada histórica da Extreme Value Theory
Leonard Tippett, no início do século XX, investigava uma questão crucial para a indústria têxtil: por que certos fios de algodão se rompiam inesperadamente durante a fabricação? Ele observou que a ruptura dos fios dependia não da média da resistência das fibras, mas da resistência da fibra mais fraca do fio. Esse insight pioneiro deu origem ao estudo sistemático das distribuições de valores extremos (Extreme Value Theory – EVT), atualmente fundamental para entender e prever eventos raros e de alto impacto. O risco de eventos extremos não se limita a fios de algodão: está presente em praticamente todas as áreas de risco. Como destaca McNeil (1999), seja em mercado, crédito ou operações, um dos maiores desafios do gestor de risco é modelar eventos raros, mas danosos e quantificar suas consequências. Esse é exatamente o propósito da EVT. Parafraseando Coles (2001), “a característica distintiva da análise de valores extremos é objetivar quantificar o comportamento estocástico de um processo em níveis excepcionalmente altos (ou baixos)”. Em outras palavras, a EVT foca na cauda das distribuições – nos piores cenários – ao contrário da estatística tradicional que enfatiza comportamentos médios.
História da EVT: de Tippett a Gnedenko
A gênese da Teoria dos Valores Extremos remonta às descobertas de Tippett na indústria têxtil. Trabalhando no Shirley Institute em Manchester, Tippett percebeu que a resistência de um cabo era ditada pela fibra mais fraca presente nele. Com ajuda de Ronald Fisher, Tippett analisou matematicamente o problema e identificou que, ao considerar o valor máximo ou mínimo em uma grande amostra, a distribuição desses extremos tendia a assumir apenas três formas possíveis, independentemente da distribuição original dos dados. Esse resultado inicial levou ao importante teorema formalizado por Fisher e Tippett em 1928, que classificou as distribuições limite para máximos (ou mínimos) de amostras independentes.
Paralelamente, os matemáticos Maurice Fréchet e Waloddi Weibull já haviam descrito duas dessas três distribuições na década de 1920. Fréchet (1927) estudou distribuições de cauda pesada (que depois levariam seu nome) e Weibull detalhou em 1951 a distribuição de cauda limitada (depois nomeada em sua homenagem). A terceira distribuição assintótica, correspondente a caudas leves, foi posteriormente associada a Emil Julius Gumbel, que consolidou todo esse corpo teórico em seu livro clássico Statistics of Extremes de 1958. Gumbel popularizou a EVT, incluindo a distribuição hoje conhecida como Gumbel (ou tipo I), enquanto as outras famílias são conhecidas como Fréchet (tipo II) e Weibull (tipo III).
Em 1943, o matemático russo Boris Gnedenko ofereceu a prova rigorosa e as condições formais para o teorema de valores extremos, mostrando que qualquer distribuição de máximo devidamente normalizado cai em uma das três famílias mencionadas. Este resultado — chamado de teorema de Fisher–Tippett–Gnedenko ou teorema dos tipos extremos — é análogo, para máximos, ao papel que o teorema central do limite desempenha para somas de variáveis aleatórias. Fisher–Tippett essencialmente demonstra que apenas três formas podem surgir como distribuição limite de máximos normalizados (quando o tamanho da amostra cresce ao infinito). Com a teoria estabelecida por volta de meados do século XX, a EVT passou a ser aplicada em diversos campos, da hidrologia (p.ex. cheias de 100 anos) à engenharia de materiais e, com o tempo, tornou-se uma ferramenta crucial também em finanças quantitativas para lidar com riscos de eventos extremos.
Fundamentos técnicos da Teoria dos Valores Extremos
Teorema do valor extremo e distribuições limite: Formalmente, o teorema de Fisher–Tippett–Gnedenko afirma que, dadas observações independentes de uma variável aleatória, a distribuição do máximo (ou mínimo) da amostra, após adequada normalização (um reescalonamento e deslocamento), converge a uma distribuição limite pertencente a uma de três famílias possíveis. Essas três famílias correspondem justamente às distribuições de Gumbel, Fréchet e Weibull, mencionadas acima. Podemos unificar essas famílias na chamada distribuição generalizada de valores extremos (GEV), que possui um parâmetro de forma ξ capaz de distinguir os três casos. Em termos intuitivos, ξ governa a curvatura da cauda da distribuição:
ξ > 0: cauda pesada (tipo Fréchet). A cauda decai como uma potência (distribuições do tipo Pareto). Exemplos de distribuições subjacentes nesse domínio de atração incluem Pareto, Cauchy, distribuição-t. Nessas distribuições, a probabilidade de observações extremamente grandes diminui mais lentamente, havendo maior frequência de outliers. Em consequência, alguns momentos (como variância) podem ser infinitos.
ξ = 0: cauda leve (tipo Gumbel). A cauda decai exponencialmente (ou mais rápido). Exemplos: normal, lognormal, gama, exponencial. São distribuições sem limite superior, mas cujas probabilidades de extremos caem rápido o suficiente para que todos os momentos sejam finitos.
ξ < 0: cauda limitada (tipo Weibull). A variável possui um limite máximo teórico (suporte finito). Exemplos: distribuições como uniforme e beta têm esse comportamentos. Neste caso, extremos são limitados por um bound e a probabilidade de exceder esse bound é zero.
Em termos de “função de cauda” (isto é, a probabilidade P(X > x) de exceder um valor alto x), a distinção acima significa que distribuições de cauda pesada decaem mais lentamente que uma exponencial. De fato, por definição, uma distribuição heavy-tail vai a zero mais lentamente que uma distribuição exponencial. Isso implica que valores extremamente grandes, embora raros, não são tão improváveis quanto seriam em distribuições de cauda leve. Por exemplo, enquanto uma distribuição normal (cauda leve) atribui probabilidade minúscula a desvios de 5-6 sigmas, uma distribuição de cauda pesada pode tornar tais eventos ordem de grandeza mais prováveis.
Matematicamente, se
representa o máximo de n observações (independentes e identicamente distribuídas i.i.d.), então o teorema extremo garante que existe uma normalização
, cujos valores convergem em distribuição, quando n tendo ao infinito, para alguma das distribuições GEV citadas (Gumbel, Fréchet ou Weibull). Essa convergência define os domínios de atração de cada tipo de cauda. Por exemplo, a distribuição normal pertence ao domínio de atração de Gumbel (cauda tipo exponencial), ao passo que uma distribuição de Pareto pertence ao domínio de atração de Fréchet (cauda pesada). Essa classificação foi crucial para que estatísticos pudessem extrapolar o comportamento da cauda de uma distribuição desconhecida a partir de observações de seus máximos.
Métodos de block maxima vs. picos-sobre-limiar: Na prática da EVT, há duas abordagens principais para análise de dados extremos. A primeira é o método de block maxima, em que dividimos a série de dados em blocos (por exemplo, por ano, mês, etc.) e, de cada bloco, extraímos o valor máximo observado. Essa amostra de máximos é então ajustada a uma distribuição GEV, apoiando-se no teorema de Fisher–Tippett–Gnedenko para justificar tal ajuste. Por exemplo, poderíamos pegar os retornos diários de um índice de ações, separar em blocos anuais e analisar a distribuição dos piores retornos anuais. A segunda abordagem é a de picos sobre um limiar (peaks over threshold, POT). Nesse método, em vez de descartar quase todos os dados exceto os máximos, considera-se todas as observações que excedem um certo limiar alto u . Analisa-se então a distribuição do excesso X - u dado que X > u. Notavelmente, há um resultado análogo para esses excessos: para limiares suficientemente altos, a distribuição condicional dos excessos tende a uma forma limite conhecida como distribuição generalizada de Pareto (GPD). Esse resultado é dado pelo teorema de Pickands–Balkema–de Haan (1974/75), frequentemente chamado de o “segundo teorema” da EVT, complementando o teorema de Fisher–Tippett. Em essência, enquanto o primeiro teorema descreve a distribuição de máximos de blocos, o segundo descreve a distribuição dos valores acima de um limiar alto.
Ambos os métodos são largamente utilizados. O método POT é valorizado por aproveitar melhor os dados (pois utiliza todos os eventos extremos acima do limiar, em vez de apenas um por bloco) e por se adequar quando temos um limiar natural de interesse (por exemplo, perdas acima de um certo valor). Por outro lado, o método de block maxima é conceitualmente simples e se alinha diretamente com o teorema clássico dos valores extremos. Em aplicações, frequentemente se emprega POT para estimação de quantis extremamente altos ou caudas de distribuições de perdas, enquanto block maxima é comum em estudos climatológicos e ambientais (ex.: máxima chuva anual). Independentemente do método, é crucial selecionar adequadamente o tamanho do bloco ou o limiar: blocos muito curtos ou limiares baixos violam as premissas assintóticas, enquanto blocos muito longos ou limiares altos geram poucas observações extremas para análise.
Funções de cauda e parâmetros de cauda: A EVT também fornece ferramentas para quantificar e comparar caudas de distribuições. Uma medida central é o índice de cauda (relacionado a ξ da GEV/GPD). Em distribuições heavy-tail, o índice de cauda pode ser interpretado como o parâmetro α de uma lei de potência que governa a probabilidade de eventos extremos (por exemplo, numa distribuição de Pareto
para x grande, e α seria o índice de cauda). Já em distribuições de cauda leve, pode-se caracterizar a cauda via a taxa de decaimento exponencial (por exemplo, o parâmetro λ de uma exponencial). Analisar a função de cauda empiricamente – por exemplo, traçando um gráfico log-log da sobrevivência P(X>x) – pode dar indícios se a cauda segue aproximadamente uma reta (indicando cauda pesada do tipo potência) ou se curva para baixo (indicando cauda mais leve que potência). Essas considerações de cauda são vitais em finanças, pois definem quão frequentes (ou surpreendentes) serão eventos extremamente adversos, como perdas catastróficas.
Nesta primeira parte sobre o assunto foi dada uma contextualização histórica e uma pincelada nas principais teorias de EVT. Na segunda parte, serão abordadas as aplicações de EVT em finanças quantitativas e as limitações e críticas do uso de EVT nesse caso.
(Para aprofundamento teórico, referências clássicas incluem o texto de Embrechts, Klüppelberg & Mikosch (1997), que detalha tanto teoria quanto prática da modelagem de extremos em seguros e finanças, bem como a introdução de Coles (2001) citada, e a obra de Gumbel (1958) que foi pioneira no tema.)
Até lá!
Referências
BALKEMA, A. A.; DE HAAN, L. Residual life time at great age. The Annals of Probability, v. 2, n. 5, p. 792‑804, 1974.
COLES, S. An introduction to statistical modeling of extreme values. London: Springer, 2001.
EMBRECHTS, P.; KLÜPPELBERG, C.; MIKOSCH, T. Modelling extremal events for insurance and finance. Berlin: Springer, 1997.
FISHER, R. A.; TIPPETT, L. H. C. Limiting forms of the frequency distribution of the largest or smallest member of a sample. Proceedings of the Cambridge Philosophical Society, v. 24, p. 180‑190, 1928.
GNEDENKO, B. Sur la distribution limite du terme maximum d’une série aléatoire. Annals of Mathematics, v. 44, n. 3, p. 423‑453, 1943.
GUMBEL, E. J. Statistics of extremes. New York: Columbia University Press, 1958.
MCNEIL, A. J. Extreme value theory for risk managers. ETH Zürich, 1999. (Working Paper).
PICKANDS, J. Statistical inference using extreme order statistics. The Annals of Statistics, v. 3, n. 1, p. 119‑131, 1975.