• Nenhum resultado encontrado

Estudo de dependência de extremos via teoria de cópulas

N/A
N/A
Protected

Academic year: 2021

Share "Estudo de dependência de extremos via teoria de cópulas"

Copied!
64
0
0

Texto

(1)

Daiane Martins Grugel

Estudo de Dependˆ

encia de Extremos via

Teoria de C´

opulas

Niter´oi - RJ, Brasil abril de 2015

(2)

Universidade Federal Fluminense

Daiane Martins Grugel

Estudo de Dependˆ

encia de Extremos

via Teoria de C´

opulas

Trabalho de Conclus˜ao de Curso

Monografia apresentada para obten¸c˜ao do grau de Bacharel em Estat´ıstica pela Universidade Federal Fluminense.

Orientador: Prof. Marco Aur´elio Sanfins

Niter´oi - RJ, Brasil abril de 2015

(3)

Universidade Federal Fluminense

Daiane Martins Grugel

Estudo de Dependˆ

encia de Extremos via

Teoria de C´

opulas

Monografia de Projeto Final de Gradua¸c˜ao sob o t´ıtulo “Estudo de Dependˆencia de Extremos via Teoria de C´opulas”, defendida por Daiane Martins Grugel e aprovada em abril de 2015, na cidade de Niter´oi, no Estado do Rio de Janeiro, pela banca examinadora constitu´ıda pelos professores:

Prof. Dr. Marco Aur´elio Sanfins Orientador Departamento de Estat´ıstica – UFF

Prof. Dr. Valentin Sisko Departamento de Estat´ıstica – UFF

Prof. Dra. Kelly Cristina Mota Gon¸calves Departamento de Estat´ıstica – UFF

(4)

M539 Grugel, Daiane Martins

Estudo de dependência de extremos via teoria de cópulas /

Daiane Martins Grugel; Marco Aurélio dos Santos Sanfins, orientador. Niterói, 2014.

63 f. : il.

Trabalho de Conclusão de Curso (Graduação em Estatísticaa ) – Universidade Federal Fluminense, Instituto de Matemática e Estatística, Niterói, 2014.

1. Cópulas. 2. Teoria dos valores extremos. 3. Cópula bi-extremal. 4. Estrutura de dependência. I. Sanfins, Marco Aurélio dos Santos, orientador. II. Universidade Federal Fluminense. Instituto de Matemática e Estatística. III. Título.

(5)

Resumo

A maior parte das pesquisas investiga a ocorrˆencia de extremos apenas com rela¸c˜ao `a maior estat´ıstica de ordem, todavia, verifica-se que a segunda maior observa¸c˜ao tamb´em se caracteriza como um evento extremo, principalmente em per´ıodos em que existe aumento da frequˆencia de ocorrˆencia dessas observa¸c˜oes. Este trabalho consiste em estudar a teoria de c´opulas – e algumas aplica¸c˜oes em exemplos pr´aticos – e a teoria dos valores extremos, sobretudo, o comportamento da dependˆencia entre os dois maiores eventos, mais especificamente, capturar a rela¸c˜ao de dependˆencia n˜ao-linear entre as vari´aveis, utilizando o conceito de c´opulas. Ou seja, estudar a estrutura de dependˆencia para as duas maiores estat´ısticas de ordem (entre o m´aximo e a segunda maior). Al´em da apresenta¸c˜ao do desenvolvimento alg´ebrico da LTDC para a c´opula bi-extremal, mostrou-se que para o caso bivariado as duas maiores estat´ısticas de ordem de uma determinada sequˆencia de vari´aveis aleat´orias cont´ınuas i.i.d. padronizadas por constantes afins s˜ao independentes quando a imagem da vari´avel geradora do processo converge.

Palavras-chaves: C´opulas, Teoria dos Valores Extremos, C´opula bi-extremal, Estrutura de Dependˆencia.

(6)

Abstract

The majority of studies investigating the occurrence of extreme solely to the greater statistical order, however, it appears that the second largest observation is also charac-terized as an extreme event, especially at times when there is increased frequency of occurrence of these observations. This work is to study the copulas theory - and some applications in practical examples - and the theory of extreme values, above all, the beha-vior of the dependence between the two major events, more specifically, to capture the non-linear dependence between the variables using the concept of copula. That is, study the dependence structure for the two largest order statistics (between the maximum and the second largest). Besides the presentation of the algebraic development of LTDC for Bi-extremal copula, it was shown that for the bivariate case the two largest order statistics of a certain sequence of continuous random variables i.i.d. standardized by constant like are independent when the image generating process variable converges.

Keywords: Copulas, Theory of Extreme Value, bi-extremal Copula, Dependency Structure

(7)

Dedicat´

oria

A Deus, que se mostrou criador, que foi criativo. Seu fˆolego de vida em mim me foi sustento e me deu coragem para questionar realidades e propor sempre um novo mundo de possibilidades.

(8)

Agradecimentos

Agrade¸co, primeiramente, a Deus, que me concedeu a vida e as gra¸cas de concluir esta gradua¸c˜ao.

Aos meus pais que sempre acreditaram no meu potencial, me apoiaram, mesmo na dificuldade. Eles deram toda a base da minha educa¸c˜ao e tudo que foi necess´ario para concluir mais essa fase dos meus estudos, seja material ou imaterial. A toda minha fam´ılia, minha cunhada Adriana, meu irm˜ao Dyone, meus primos(as), tios(as) e todos aqueles que torceram por mim. E aos amigos da fam´ılia, os “Z´e’s” da minha vida - rs, Z´e Para´ıba, que me mostrou como ´e interessante analisar o lado simples da vida, e Z´e Antˆonio, que me falou palavras de conforto em momentos dif´ıceis.

Ao professor Marco Aur´elio, que me orientou, n˜ao s´o durante a constru¸c˜ao da mono-grafia, mas desde o terceiro per´ıodo da gradua¸c˜ao. Obrigada pela ajuda, pelos conselhos, pelas explica¸c˜oes, pela paciˆencia, pelo apoio, por acreditar e confiar em mim, pelo afeto. Tudo que fez e faz na minha vida ´e muito importante e me faz tˆe-lo como um segundo pai.

Aos professores Valentin e Kelly, por aceitarem participar da minha banca e por todas as sugest˜oes feitas para o aperfei¸coamento deste trabalho.

A todos os professores do departamento de An´alise e Estat´ıstica. Do departamento de An´alise, Haroldo e Nilvaldo, que me ajudaram a ver o mundo e as situa¸c˜oes com uma vis˜ao ampla e diferenciada. Do departamento de Estat´ıstica, todos aqueles que tive a oportunidade de assistir aula e, portanto, contribu´ıram na constru¸c˜ao de toda minha forma¸c˜ao estat´ıstica. Em especial aos professores Maria Cristina, Jony e Adrian. Maria Cristina me fez descobrir, no segundo per´ıodo, quando a professora lecionava a disciplina Probabilidade I, que eu estava no curso certo, pois foi quando me apaixonei pela probabilidade. Com o professor Jony tive a honra que ser orientada em dois projetos, um de inicia¸c˜ao cient´ıfica, onde aprendi muitos assuntos que envolviam estat´ıstica, e outro de monitoria, que me mostrou a importˆancia de estar sempre estudando e se aperfei¸coando. Ao professor Adrian, agrade¸co por dois momentos, o primeiro quando lecionou a disciplina de Probabilidade III, que refor¸cou minha paix˜ao pela probabilidade e aprendi a organizar

(9)

meus hor´arios de estudo; obrigada por ter sido rigoroso, gra¸cas a isso me tornei monitora da disciplina por um ano e meio. O segundo momento, quando tive a oportunidade de desenvolver um projeto de consultoria, que reforcei meus conhecimentos em modelos lineares, aperfei¸coei a escrita e a maneira de apresentar an´alises num relat´orio t´ecnico.

Aos meus amigos. Primeiramente, os de “longa data”, Percy, Marllon, Evandro, Marina, obrigada pelo incentivo e momentos de descontra¸c˜oes quando eu precisava relaxar. Aos amigos da UFF, s˜ao tantos... aqueles que tive o prazer de estudar junto l´a no comecinho do curso de gradua¸c˜ao, Tamara, Patr´ıcia, Hernane, Lucas, Guilherme, e que, hoje, o destino trilhou caminhos diferentes. Aos que seguiram no mesmo caminho que eu, J´ulio, Camila, S´ergio, Andressa e Larissa, esses, amigos para todas as situa¸c˜oes, para estudar, relaxar, conversar, discutir, sorrir, chorar. Aos amigos da matem´atica da UFF, que tive a oportunidade de conhecer e compartilhar momentos, Andr´e, Jonhny e Diego. Obrigada tamb´em aos colegas da UFF que tive a oportunidade de ajudar durante o per´ıodo que fui monitora, gra¸cas a vocˆes entendi o porquˆe de alguns professores falarem que tamb´em aprendem com seus alunos. Aos amigos da FUCAPE do Esp´ırito Santo, Edvan, Andr´eia, Lucas, Thawler, Diheyson e Juliana, com os quais aprendi a ter mais concentra¸c˜ao, organiza¸c˜ao, tranquilidade, paciˆencia, irreverˆencia e espontaneidade.

Aos Doutores Marcos Huber, Danilo Soares e Aline Nobre, com os quais tive o prazer de trabalhar e realizar projetos.

(10)

Sum´

ario

Lista de Figuras 1 Introdu¸c˜ao p. 10 2 C´opulas p. 13 2.1 Teoria B´asica . . . p. 13 2.2 Medidas de Associa¸c˜ao . . . p. 18 2.3 C´opulas Importantes e Fam´ılias de C´opulas . . . p. 20 2.3.1 Limites de Fr´echet Associados a C´opulas . . . p. 30 2.4 Exemplos Pr´aticos Utilizando o R . . . p. 31

3 Dependˆencia de Extremos p. 36

3.1 Teoria dos Valores Extremos . . . p. 36 3.1.1 Modelos Assint´oticos . . . p. 36 3.1.1.1 Distribui¸c˜ao Generalizada de Valor Extremo . . . p. 40 3.1.2 O Modelo Para as K−maiores Estat´ısticas de Ordem . . . p. 41 3.2 A C´opula Bi-extremal . . . p. 43 3.2.1 Determina¸c˜ao . . . p. 43 3.2.2 C´opula Condicional - A LTDC . . . p. 49

4 Conclus˜oes e Trabalhos Futuros p. 55

Referˆencias p. 57

(11)

Lista de Figuras

1 C´opula bivariada independente. . . p. 20 2 Densidade da c´opula Gaussiana (a) e densidade de uma normal bivariada

com ρ = 0.7 (b). . . p. 21 3 Gr´aficos de dispers˜ao da c´opula t bivariada com parˆametros (ρ = 0.8, ν =

1) (a), (ρ = 0.8, ν = 100) (b), (ρ = 0.1, ν = 5) (c) e (ρ = 0.3, ν = 2) (d)

com amostra de tamanho 10000. . . p. 23 4 Gr´aficos da densidade da c´opula t bivariada com parˆametros (ρ = 0.8, ν =

1) (a), (ρ = 0.8, ν = 100) (b), (ρ = 0.1, ν = 5) (c) e (ρ = 0.3, ν = 2) (d)

com amostra de tamanho 10000. . . p. 24 5 Gr´afico de dispers˜ao (a) e densidade da c´opula Clayton (b) com parˆametro

α = 2 com amostra de tamanho 10000. . . p. 26 6 Gr´afico de dispers˜ao (a) e densidade da c´opula Frank (b) com parˆametro

α = 10 com amostra de tamanho 10000. . . p. 27 7 Gr´afico de dispers˜ao (a) e densidade da c´opula Gumbel (b) com parˆametro

α = 4 com amostra de tamanho 10000. . . p. 28 8 C´opula M (a) e C´opula W (b). . . p. 29 9 Curvas de n´ıvel da c´opula W (a), c´opula independente (b) e c´opula M (c). p. 31 10 Gr´aficos de dispers˜ao de uma amostra proveniente de H (a) e proveniente

de C (b) de tamanho 10.000. . . p. 31 11 Gr´afico de dispers˜ao da c´opula bivariada C(u, v) = u+v−uvuv obtida atrav´es

do algoritmo – amostra de tamanho 10.000. . . p. 32 12 Kendall plot para diferentes valores de ρ. . . p. 34

(12)

10

1

Introdu¸

ao

A diminui¸c˜ao da ocorrˆencia de eventos extremos, geralmente relacionados a efeitos das mudan¸cas clim´aticas globais, s˜ao os maiores desafios da humanidade neste in´ıcio de s´eculo. O IPCC (Intergovernmental Panel on Climate Change), no seu 4o relat´orio em

2004, definiu, do ponto de vista f´ısico, que um evento extremo de tempo ´e considerado raro quando observado o percentil 10 ou 90 da fun¸c˜ao de densidade de probabilidade [1], ou seja, de pequena probabilidade de ocorrˆencia. Do ponto de vista social, eventos extremos s˜ao aqueles que envolvem risco (mortes, desabrigados, danos materiais, etc) e tem rela¸c˜ao com a vulnerabilidade e a resiliˆencia. Onde vulnerabilidade ´e a susceptibilidade que tem as pessoas, suas atividades, posses e infraestrutura `as perdas e danos quando sujeitas a eventos f´ısicos de diferentes ordens de magnitude. J´a resiliˆencia corresponde com o tempo de recupera¸c˜ao ap´os um evento extremo – baseado num processo pr´evio de adapta¸c˜ao e num aprendizado de como lidar com desastres.

Uma das mais importantes quest˜oes relacionadas a eventos extremos a curto prazo ´e se sua ocorrˆencia est´a aumentando ou diminuindo com o tempo; isto ´e, se h´a uma tendˆencia a cen´arios prop´ıcios `a ocorrˆencia desses eventos. A variabilidade e as mudan¸cas na intensidade e frequˆencia de eventos extremos dependem n˜ao apenas da taxa de mu-dan¸ca do meio de uma determinada vari´avel, mas tamb´em da ocorrˆencia de mudan¸cas nos parˆametros estat´ısticos que determinam a distribui¸c˜ao daquela vari´avel.

As caracter´ısticas do que ´e chamado de eventos extremos podem variar. Entre estes podemos citar: os altos n´ıveis do mar em Nova Orleans no ano de 2005 [2], a ocorrˆencia de tsunamis no oceano ´Indico em 2004 [3], o crash do mercado de a¸c˜oes em 2002 e 2008 (Dow Jones), a ocorrˆencia de chuvas intensas que causaram graves inunda¸c˜oes e deslizamentos fatais no Sul do Brasil (no estado de Santa Catarina) em 2008, e em mar¸co de 2004, no mesmo estado, foi detectado o furac˜ao Catarina, segundo Pezza, o primeiro furac˜ao a afetar o continente, que causou perdas da ordem de 1 bilh˜ao de d´olares [4]. As secas de 2005 e 2010 na Amazˆonia, os 47 dias de chuvas consecutivas em S˜ao Paulo entre dezembro de 2009 e janeiro de 2010 que marcaram o dobro da m´edia hist´orica para o mˆes de janeiro,

(13)

1 Introdu¸c˜ao 11

as fortes chuvas que atingiram a regi˜ao metropolitana e serrana do Rio de Janeiro em 2010 e 2011 (em 2010, a enchente com desmoronamentos e muitas mortes de pessoas aconteceu em morros de Niter´oi; em 2011 na regi˜ao serrana do Rio de Janeiro, atingindo especialmente as cidades de Teres´opolis e Nova Friburgo). A ocorrˆencia desses eventos, em sua maioria, ´e considerada como sendo extrema. Todavia, quando levamos em conta dados hist´oricos, verifica-se, nesses casos, que tamb´em a segunda “maior” observa¸c˜ao, que estas tamb´em s˜ao eventos extremos. Este trabalho consiste em estudar o comportamento da dependˆencia entre os dois “maiores” eventos, mais especificamente, capturar a rela¸c˜ao de dependˆencia n˜ao-linear entre as vari´aveis, utilizando o conceito de c´opulas. Ou seja, estudar a estrutura de dependˆencia para as duas maiores estat´ısticas de ordem (entre o m´aximo e a segunda maior).

A necessidade crescente de conhecer o comportamento de eventos extremos e, sobre-tudo, as propriedades associadas `a esses, foi a principal motiva¸c˜ao para o desenvolvimento e a reprodu¸c˜ao de todos os resultados apresentados nesta monografia. O estudo da mo-delagem de dependˆencias via c´opulas tem trˆes motiva¸c˜oes principais: primeiramente, como uma maneira de se estudar medidas de dependˆencia invariantes sob transforma¸c˜oes mon´otonas, em segundo lugar como uma metodologia de se construir fam´ılias de fun¸c˜oes de distribui¸c˜ao multivariadas e, finalmente, como um modo de se extrair a estrutura de dependˆencia de uma fun¸c˜ao distribui¸c˜ao conjunta separando-a do comportamento margi-nal.

Em muitos casos, ´e interessante estudar a estrutura de dependˆencia da c´opula nas regi˜oes superior ou inferior, ou seja, pr´oximo `a regi˜ao limite (1, 1) ou (0, 0). Este fato torna-se interessante, pois esta estrutura limite ´e completamente diferente do todo. Vi-sando a um melhor entendimento sobre esta estrutura, Charpentier introduziu o conceito da LTDC (the lower tail dependence copula), que nada mais ´e do que uma c´opula con-dicional, que caracteriza a estrutura de dependˆencia no limite da cauda [5]. Al´em desta nova c´opula que reflete a estrutura de dependˆencia condicional, tamb´em podemos estudar o limite desta distribui¸c˜ao quando a imagem da vari´avel geradora do processo converge para +∞ ou −∞, o que permite conhecer exatamente o comportamento das caudas. Logo, com base nesse resultado, foi poss´ıvel o desenvolvimento alg´ebrico da LTDC para a c´opula bi-extremal. Com a prova do Teorema 3.7, fica claro que, para o caso bivariado, as duas maiores estat´ısticas de ordem de uma determinada sequˆencia de vari´aveis aleat´orias cont´ınuas independentes e identicamente distribu´ıdas, padronizadas por constantes afins s˜ao independentes quando a imagem da vari´avel geradora do processo converge para +∞ ou −∞. Este resultado ´e mais forte do que o encontrado em [6], onde foi demostrado que

(14)

1 Introdu¸c˜ao 12

os valores de λU (dependˆencia de cauda superior) e λL (dependˆencia de cauda inferior)

s˜ao iguais a zero.

O restante desta monografia assim se organiza. O cap´ıtulo 2 ´e dedicada aos elemen-tos essenciais da teoria de c´opulas, que ´e tecnologia estat´ıstica adequada para estudar a estrutura de dependˆencia entre vari´aveis aleat´orias; apresenta defini¸c˜oes, teoremas e aplica¸c˜oes utilizando o software R [7]. O cap´ıtulo 3 visa expor resultados importantes da teoria dos valores extremos, que s˜ao essenciais para obten¸c˜ao da c´opula bi-extremal, que ´e reproduzida e demonstrada na se¸c˜ao 3.2. Inclui, ainda, o desenvolvimento alg´ebrico da LTDC para a c´opula bi-extremal. O cap´ıtulo 4 conclui a monografia. Por fim, os c´odigos do software R necess´arios para reprodu¸c˜ao dos exemplos listados na se¸c˜ao 2.4, s˜ao apresentadas em anexo.

(15)

13

2

opulas

2.1

Teoria B´

asica

A representa¸c˜ao e interpeta¸c˜ao claras da estrutura de dependˆencia de dados multi-variados, em particular de dados bimulti-variados, pode ser feita mais eficientemente usando o conceito de c´opulas. Isto ´e devido ao n´umero incont´avel de combina¸c˜oes de poss´ıveis tipos de c´opulas e de distribui¸c˜oes marginais que podemos assumir.

Nesta se¸c˜ao vamos definir c´opulas, bem como suas propriedades. H´a duas manei-ras b´asicas de definir c´opula. Primeiramente, c´opulas s˜ao fun¸c˜oes que ligam fun¸c˜oes de distribui¸c˜ao multivariadas com suas fun¸c˜oes de distribui¸c˜ao marginais univariadas. Al-ternativamente, c´opulas s˜ao fun¸c˜oes de distribui¸c˜ao multivariadas cujas marginais unidi-mensionais s˜ao uniformes no intervalo (0, 1) [8]. Podemos estabelecer duas defini¸c˜oes para c´opulas, a defini¸c˜ao 2.1.1 e 2.1.2.

Defini¸c˜ao 2.1.1 Seja I = [0, 1] e In = [0, 1]n, uma C´opula n-dimensional ´e uma fun¸ao

de distribui¸c˜ao multidimensional C definida em In que assume valores em I, e que possui as seguintes propriedades:

(i) Para todo ui ∈ I C(u1, . . . , ui−1, 0, ui+1, . . . , un) = 0, com i = 1, . . . , n;

(ii) Para todo ui ∈ I C(1, . . . , 1, ui, 1, . . . , 1) = ui, com i = 1, . . . , n;

(iii) Para todos (a1, . . . , an), (b1, . . . , bn) ∈ [0, 1]n com ai ≤ bi tem-se que 2 X i1=1 . . . 2 X in=1 (−1)i1+...+inC(u 1i1, . . . , unin) ≥ 0, com uj1 = aj e uj2 = bj, j = 1, . . . , n.

(16)

2.1 Teoria B´asica 14

e I2 = [0, 1]2, uma C´opula bidimensional ´e uma fun¸c˜ao de distribui¸c˜ao multidimensional C definida em I2 que assume valores em I, e que possui as seguintes propriedades:

(i) Para todo u, v ∈ I, C(u, 0) = 0 = C(0, v); (ii) Para todo u, v ∈ I, C(u, 1) = u e C(1, v) = v;

(iii) Para todos u1, u2, v1, v2 ∈ I tal que u1 ≤ u2 e v1 ≤ v2, tem-se que

C(u2, v2) − C(u2, v1) − C(u1, v2) + C(u1, v1) ≥ 0.

Defini¸c˜ao 2.1.2 Uma c´opula ´e definida como a fun¸c˜ao de distribui¸c˜ao conjunta C(u1, . . . , un) = P (U1 ≤ u1, . . . , Un ≤ un), 0 ≤ ui ≤ 1,

sendo Ui ∼ U (0, 1), i = 1, . . . , n.

Defini¸c˜ao 2.1.3 Seja C uma c´opula, a c´opula de sobrevivˆencia C associado com C ´e definida para (u, v) ∈ [0, 1]2 como:

C(u, v) = C(1 − u, 1 − v) + u + v − 1. (2.1) Defini¸c˜ao 2.1.4 Seja C uma c´opula.

• A c´opula condicional c(u|v) ´e definida como: cv(u) = ∂C(u,v)∂v = P (U ≤ u|V ≤ v);

• A c´opula condicional c(v|u) ´e definida como: cu(v) =

∂C(u,v)

∂u = P (V ≤ v|U ≤ u).

O Teorema de Sklar [9] ´e o resultado mais importante na teoria de c´opulas e d´a a existˆencia e unicidade da fun¸c˜ao C(·).

Teorema 2.1 (Sklar 1959) Seja (X1, . . . , Xn) um vetor aleat´orio em Rn com fun¸c˜ao

de distribui¸c˜ao conjunta F e marginais Fi, i = 1, . . . , n. Ent˜ao existe uma c´opula C

n-dimensional C(·) tal que, ∀ x = (x1, . . . , xn) ∈ Rn,

F (x1, . . . , xn) = C(F1(x1), . . . , Fn(xn)). (2.2)

Se F1(x1), . . . , Fn(xn) s˜ao todas cont´ınuas, ent˜ao C(·) ´e ´unica, e determinada pela f´ormula

C(u1, . . . , un) = F (F1−1(u1), . . . , Fn−1(un)). (2.3)

(17)

2.1 Teoria B´asica 15

Sem perda de generalidade, considere o caso bivariado do Teorema 2.1. Seja (X, Y ) um vetor aleat´orio em R2 com fun¸c˜ao de distribui¸c˜ao conjunta F e marginais Fi, i = 1, 2.

Ent˜ao existe uma c´opula C bidimensional C(·) tal que, ∀ (x, y) ∈ R2,

F (x, y) = C(F1(x), F2(y)). (2.4)

Se F1(x), F2(y) s˜ao cont´ınuas, ent˜ao C(·) ´e ´unica, e determinada pela f´ormula

C(u, v) = F (F1−1(u), F2−1(v)). (2.5)

Caso contr´ario C(·) ´e unicamente determinada no conjunto Im(F1) × Im(F2).

A interpreta¸c˜ao de (2.3) ´e que podemos estudar o fenˆomeno de dependˆencia entre as vari´aveis sem fixar as distribui¸c˜oes marginais.

Al´em disso, assumindo que F1, . . . , Fn e C s˜ao diferenci´aveis, ent˜ao a densidade

con-junta f (x1, . . . , xn) de (X1, . . . , Xn) pode ser escrita como

f (x1, . . . , xn) = c(F1(x1), . . . , Fn(xn)) n Y i=1 fi(xi), (2.6) onde c(u1, . . . , un) = ∂nC(u 1, . . . , un) ∂u1. . . un ,

´e a densidade da c´opula, e fi ´e a fun¸c˜ao de densidade de Xi, i = 1, . . . , n. Em (2.6)

nota-se a decomposi¸c˜ao da densidade conjunta em duas partes. Onde c(F1(x1), . . . , Fn(xn))

descreve a estrutura de dependˆencia e

n

Y

i=1

fi(xi) descreve o comportamento marginal de

cada componente. Percebe-se ent˜ao que a c´opula de um vetor de vari´aveis aleat´orias pode ser interpretada como a estrutura de dependˆencia do vetor aleat´orio.

Sempre ´e poss´ıvel fazer a transforma¸c˜ao de vari´aveis

U = FX(X) e V = FY (Y ) , (2.7)

de forma que U e V possuem ambas distribui¸c˜oes marginais uniformes no intervalo (0, 1).

Exemplo 2.1.5 (Distribui¸c˜ao exponencial bivariada de Gumbel). Seja Hθ uma fun¸c˜ao

de distribui¸c˜ao conjunta dada por:

(18)

2.1 Teoria B´asica 16

. E c´opula associada, dada por:

Cθ(u, v) = u + v − 1 + (1 − u)(1 − v)e−θ log(1−u) log(1−v). (2.8)

Veja que, u = F (x) = 1 − e−x, x ≥ 0 e v = G(y) = 1 − e−y, y ≥ 0. De fato, substituindo em (2.8) temos que,

C(F (x), G(y)) = 1 − e−x+ (1 − e−y) − 1 + [1 − (1 − e−x)][1 − (1 − e−y)]× × e−θ log[1−(1−e−x)] log[1−(1−e−y)]

= 1 − e−x+ 1 − e−y− 1 + e−xe−ye−θ log(e−x) log(e−y) = 1 − e−x− e−y + e−xe−ye−θ(−x)(−y)

= 1 − e−x− e−y + e−xe−ye−θxy = Hθ(x, y).

Exemplo 2.1.6 Se a distribui¸c˜ao conjunta de (X, Y ) ´e dada por

H(x, y) = [1 + exp(−x) + exp(−y)]−1, x, y ∈ R = [−∞, +∞], ent˜ao as marginais s˜ao F (x) = (1 + exp(−x))−1 e G(y) = (1 + exp(−y))−1. Da´ı,

F−1(u) = − log(u−1− 1), u ∈ (0, 1), G−1(v) = − log(v−1− 1), v ∈ (0, 1). De acordo com (2.3), a c´opula C(u, v) associada com H(x, y) ´e

C(u, v) = H(F−1(u), G−1(v)) = (u−1+ v−1− 1)−1.

Uma vez que, se X1, . . . , Xn s˜ao independentes se e somente se H(x1, . . . , xn) = n

Y

i=1

FXi(xi) para todos (x1, . . . , xn) ∈ R

n , o pr´oximo resultado segue da express˜ao (2.3) e

do Teorema de Sklar.

Teorema 2.2 Seja (X1, . . . , Xn) um vetor de vari´aveis aleat´orias cont´ınuas com c´opula

C(·), ent˜ao X1, . . . , Xn s˜ao independentes se e somente se

C(u) = C(u1, . . . , un) = n

Y

i=1

(19)

2.1 Teoria B´asica 17

Exemplo 2.1.7 Considere um vetor aleat´orio bi-dimensional (X, Y ), com fun¸c˜ao de dis-tribui¸c˜ao conjunta dada por:

FX,Y(x, y) =

(

1 − e−λy− e−λx+ e−λ(x+y) , se x > 0, y > 0

0 , caso contr´ario

Veja que suas marginais s˜ao dadas por: FX(x) = lim

y→∞FX,Y(x, y) = limy→∞(1 − e

−λy− e−λx + e−λ(x+y)) = 1 − e−λx. FY(y) = lim x→∞FX,Y(x, y) = limx→∞(1 − e −λy− e−λx + e−λ(x+y)) = 1 − e−λy.

Isto ´e, X ∼ Exp(λ) e Y ∼ Exp(λ).

Encontrando x = h(u) (x em fun¸c˜ao de u) e y = g(v) (y em fun¸c˜ao de v), temos que: u = 1 − e−λx u − 1 = −e−λx 1 − u = e−λx log(1 − u) = −λx x = −log(1 − u) λ . Analogamente, y = −log(1−v)λ .

Da´ı, pode-se encontrar a c´opula associada ao vetor aleat´orio (X, Y ): C(u, v) = F  − log(1 − u) λ , − log(1 − v) λ  = 1 − eλ log(1−v)λ − e λ log(1−u) λ + eλ( log(1−u)+log(1−v) λ ) = 1 − (1 − v) − (1 − u) + (1 − u)(1 − v) = 1 − 1 + v − 1 + u + 1 − v − u + uv = uv.

(20)

2.2 Medidas de Associa¸c˜ao 18

2.2

Medidas de Associa¸

ao

(i) Coeficiente de correla¸c˜ao ρ

Seja (X, Y ) um vetor de vari´aveis aleat´orias com variˆancias positivas finitas. O coeficiente de correla¸c˜ao linear de (X, Y ) ´e definido como

ρ(X, Y ) = Cov(X, Y )

pV ar(X)V ar(Y ) (2.10)

onde Cov(X, Y ) = E(XY )−E(X)E(Y ) ´e a covariˆancia entre X e Y , e V ar(X),V ar(Y ) s˜ao as variˆancias de X e Y , respectivamente.

As principais propriedades de ρ s˜ao: 1. −1 ≤ ρ(X, Y ) ≤ 1;

2. Se X e Y s˜ao independentes, ent˜ao ρ(X, Y ) = 0;

3. ρ(aX + b, cY + d) = sign(ac)ρ(X, Y ) para todos reais a 6= 0, c 6= 0, b e d, sign(x) ´e a fun¸c˜ao sinal de x.

– O coeficiente ρ(X, Y ) ´e uma medida param´etrica de dependˆencia linear entre as vari´aveis, sendo invariante sob transforma¸c˜oes lineares estritamente crescentes. – ρ(X, Y ) ´e uma medida de dependˆencia natural nas distribui¸c˜oes normais mul-tivariadas, e num contexto mais amplo nas fam´ılias de distribui¸c˜oes esf´erica e el´ıptica.

– A correla¸c˜ao linear tem uma certa deficiˆencia que ´e ser n˜ao-invariante sob tranforma¸c˜oes n˜ao lineares estritamente crescentes T : R → R, isto ´e

Corr(T (X), T (Y )) 6= Corr(X, Y )

(ii) Coeficientes de correla¸c˜ao baseados em postos: ρS(X, Y ) e ρK(X, Y ).

Seja (X1, Y1), (X2, Y2) e (X3, Y3) trˆes vetores aleat´orios independentes com fun¸c˜ao

de distribui¸c˜ao conjunta comum H. Ent˜ao, o coeficiente de correla¸c˜ao baseado em postos de Spearman, ρS(X, Y ), ´e definido como:

ρS(X, Y ) = 3(P [(X1 − X2)(Y1− Y3) > 0] − P [(X1− X2)(Y1− Y3 < 0)]). (2.11)

O coeficiente de correla¸c˜ao baseado em postos de Kendall, ρK(X, Y ), ´e definido

como:

(21)

2.2 Medidas de Associa¸c˜ao 19

onde (X, Y ) e (X∗, Y∗) s˜ao dois vetores aleat´orios independentes e com distribui¸c˜ao comum F .

´

E poss´ıvel escrever ρS e ρK em fun¸c˜ao da c´opula pertinente:

ρS(X, Y ) = 12 Z I2 Z {C(u, v) − uv}dudv (2.13) ρK(X, Y ) = 4 Z I2 Z C(u, v)dC(u, v) − 1. (2.14) Ambos os coeficientes de Spearman e de Kendall medem dependˆencia mon´otona. Eles n˜ao s˜ao afetados por transforma¸c˜oes mon´otonas e dependem apenas da c´opula. (iii) Dependˆencia no Quadrante Positivo (DQP).

Duas vari´aveis aleat´orias X e Y s˜ao ditas DQP se

P (X > x, Y > y) ≥ P (X > x)P (Y > y), (2.15)

para todo x, y ∈ R. Em termos de c´opulas, se C for a c´opula pertinente a (X, Y ), a rela¸c˜ao (2.15) ´e equivalente a

C  C⊥, (2.16)

onde C⊥ ´e a c´opula de marginais independentes (definida na pr´oxima se¸c˜ao).

(iv) Dependˆencia de cauda.

Se existir associa¸c˜ao positiva entre eventos extremos de X e Y , ent˜ao a probabilidade condicional P (X > F1−1(1 − α)|Y > F2−1(1 − α)) ´e maior que zero. A dependˆencia de cauda superior entre X e Y ´e definida como:

lim α→0+λU(α) = limα→0+P (X > F −1 1 (1 − α)|Y > F −1 2 (1 − α)), (2.17)

se este limite existir. Para α pequeno, esta probabilidade n˜ao depende da ordem das duas vari´aveis X e Y , as quais s˜ao assintoticamente dependentes na cauda superior se λU ∈ (0, 1], e assintoticamente independentes se λU = 0.

Similarmente, a dependˆencia de cauda inferior ´e dada por lim α→1−λL(α) = limα→1+P (X > F −1 1 (1 − α)|Y > F −1 2 (1 − α)), (2.18)

se este limite existir. Dizemos que existe dependˆencia de cauda inferior entre as vari´aveis se λL∈ (0, 1]. Independˆencia corresponde a λL = 0.

(22)

exis-2.3 C´opulas Importantes e Fam´ılias de C´opulas 20

tente no canto externo do quadrante superior direito (λU), ou no quadrante inferior

esquerdo (λL) do suporte de (X, Y ). Pode ser expresso em termos da c´opula

perti-nente C:

λU = lim u→1−

C(u, u)

1 − u , (2.19)

se este limite existir, e onde C ´e a c´opula de sobrevivˆencia. λL= lim

u→0+

C(u, u)

u , (2.20)

2.3

opulas Importantes e Fam´ılias de C´

opulas

Nas aplica¸c˜oes em finan¸cas e inferˆencia estat´ıstica pode-se usar fam´ılias de distri-bui¸c˜oes multivariadas constru´ıdas com c´opulas parametrizadas por um ou mais parˆametros a serem encontrados atrav´es dos m´etodos estabelecidos de inferˆencia (m´etodo dos momen-tos, m´axima verossimilhan¸ca, estima¸c˜ao bayesiana de parˆametros, etc). Abaixo algumas fam´ılias conhecidas de c´opulas s˜ao apresentadas com suas propriedades mais importantes.

(i) C´opula de Marginais Independentes: C⊥

C⊥(u1, . . . , un) = n

Y

i=1

ui

De fato, a distribui¸c˜ao conjunta de vari´aveis aleat´orias independentes ´e o produto de suas marginais. Neste caso, temos que C⊥ ´e uniforme no hiperplano.

(23)

2.3 C´opulas Importantes e Fam´ılias de C´opulas 21

(ii) C´opula Normal ou Gaussiana

A distribui¸c˜ao normal multivariada pode ser usada para construir uma fam´ılia de c´opulas atrav´es da mudan¸ca de vari´aveis indicada em (2.7). Dessa forma se obt´em uma fam´ılia de c´opulas parametrizadas pelos n(n − 1)/2 coeficientes independentes da matriz de correla¸c˜ao. A c´opula gaussiana ou normal ser´a portanto dada por:

CΣˆ(u) = 1 (2π)n2| ˆΣ| 1 2 Z Φ−1(u1) −∞ Z Φ−1(u2) −∞ . . . Z Φ−1(un) −∞ exp{−1 2x 0ˆ Σ−1x}dx1dx2. . . dxn, (2.21) em que: ˆΣ =        1 ρ1,2 · · · ρ1,n ρ2,1 1 · · · ρ2,n .. . ... . .. ... ρn,1 ρn,2 · · · 1        ´

e a matriz de correla¸c˜ao que parametriza a

c´opula e Φ(x) = 12 + 12 erf√x 2



´e a distribui¸c˜ao cumulativa de uma vari´avel com distribui¸c˜ao normal padronizada e erf(x) ´e a fun¸c˜ao erro.

A c´opula normal se reduz `a c´opula produto quando a matriz de correla¸c˜ao ´e diagonal, isto ´e, quando todas as correla¸c˜oes s˜ao nulas.

(a) (b)

Figura 2: Densidade da c´opula Gaussiana (a) e densidade de uma normal bivariada com ρ = 0.7 (b).

(iii) C´opula t

Assim como a c´opula normal pode ser definida a partir da distribui¸c˜ao normal multivariada, a distribui¸c˜ao t de Student multivariada d´a origem `a c´opula t. A

(24)

2.3 C´opulas Importantes e Fam´ılias de C´opulas 22

c´opula t ´e dada por:

CΣ,νˆ (u) = Γ ν+d2  Γ ν2q (πν)d| ˆΣ| Z t−1ν (u1) −∞ dx1 Z t−1ν (u2) −∞ dx2. . . Z t−1ν (un) −∞ dxn " 1 + x 0Σˆ−1x ν #−ν+d2 (2.22) em que ˆΣ ´e a matriz de correla¸c˜oes, como no caso da c´opula normal, ν ´e o parˆametro conhecido como n´umero de graus de liberdade da distribui¸c˜ao t e tν(x) ´e a

distri-bui¸c˜ao cumulativa de uma distribui¸c˜ao Student univariada padronizada. Quando o n´umero de graus de liberdade ν ´e muito grande, a c´opula t fica cada vez mais pr´oxima da c´opula gaussiana, ficando idˆentica `a mesma no limite ν → ∞.

Sem perda de generalidade, a c´opula t bivariada ´e dada por: Cν,ρ(u, v) = Tν,ρ(Tν−1(u), T

−1 ν (v)),

onde ρ ∈ [−1, 1], Tν(·) ´e a fun¸c˜ao de distribui¸c˜ao univariada de uma vari´avel aleat´oria

que segue a distribui¸c˜ao t-Student com ν graus de liberdade e Tν,ρ(·, ·) ´e a fun¸c˜ao

de distribui¸c˜ao de um vetor aleat´orio bivariado T = (T1, T2), que segue uma

distri-bui¸c˜ao t-Student bivariada com ν graus de liberdade. Assim, a densidade da c´opula t bivariada ´e dada por:

cν,ρ(u, v) =

tν,ρ(Tν−1(u), Tν−1(v))

tν(Tν−1(u))tν(Tν−1(v))

(25)

2.3 C´opulas Importantes e Fam´ılias de C´opulas 23

(a) (b)

(c) (d)

Figura 3: Gr´aficos de dispers˜ao da c´opula t bivariada com parˆametros (ρ = 0.8, ν = 1) (a), (ρ = 0.8, ν = 100) (b), (ρ = 0.1, ν = 5) (c) e (ρ = 0.3, ν = 2) (d) com amostra de tamanho 10000.

(26)

2.3 C´opulas Importantes e Fam´ılias de C´opulas 24

(a) (b)

(c) (d)

Figura 4: Gr´aficos da densidade da c´opula t bivariada com parˆametros (ρ = 0.8, ν = 1) (a), (ρ = 0.8, ν = 100) (b), (ρ = 0.1, ν = 5) (c) e (ρ = 0.3, ν = 2) (d) com amostra de tamanho 10000.

(27)

2.3 C´opulas Importantes e Fam´ılias de C´opulas 25

(iv) C´opulas Arquimedianas

Algumas c´opulas podem ser escritas na forma:

C(u, v) = φ−1(φ(u) + φ(v)) (2.23)

e s˜ao chamadas de c´opulas arquimedianas com fun¸c˜ao geradora φ(x). Qualquer fun¸c˜ao pode ser a fun¸c˜ao geradora de uma c´opula arquimediana se satisfazer os crit´erios: – φ(1) = 0 – lim x→0 φ(x) = +∞ – dφdx < 0 – ddx2φ2 > 0

C´opulas dessa classe s˜ao extremamente usadas por possu´ırem express˜oes anal´ıticas simples para a maioria de seus momentos e parˆametros de dependˆencia. A c´opula produto ´e uma c´opula arquimediana com fun¸c˜ao geradora φ(x) = − log(x).

T´ıpicos exemplos de c´opulas Arquimedianas s˜ao Clayton, Frank e Gumbel, apresen-tadas na sequˆencia.

1. C´opula de Clayton

A c´opula de Clayton ´e obtida usando a fun¸c˜ao geradora φ(x) = α1(t−α−1), α ∈ [−1, ∞) \ {0}, e ´e dada pela express˜ao:

C(u, v) = max[(u−α+ v−α− 1)−α1, 0]. (2.24)

(28)

2.3 C´opulas Importantes e Fam´ılias de C´opulas 26

(b)

Figura 5: Gr´afico de dispers˜ao (a) e densidade da c´opula Clayton (b) com parˆametro α = 2 com amostra de tamanho 10000.

2. C´opula de Frank

A c´opula de Frank ´e obtida usando a fun¸c˜ao geradora φ(x) = − logexp(−αt)−1exp(−α)−1, α ∈ (−∞, +∞) \ {0}, e ´e dada pela express˜ao:

C(u, v) = −1 αlog  1 + (e −αu− 1)(e−αv − 1) e−α− 1  . (2.25) (a)

(29)

2.3 C´opulas Importantes e Fam´ılias de C´opulas 27

(b)

Figura 6: Gr´afico de dispers˜ao (a) e densidade da c´opula Frank (b) com parˆametro α = 10 com amostra de tamanho 10000.

3. C´opula de Gumbel

A c´opula de Gumbel ´e obtida usando a fun¸c˜ao geradora φ(x) = (− log t)α, α ∈

[1, ∞), e ´e dada pela express˜ao:

C(u, v) = exp{−[(− log u)α+ (− log v)α]1/α}. (2.26)

(30)

2.3 C´opulas Importantes e Fam´ılias de C´opulas 28

(b)

Figura 7: Gr´afico de dispers˜ao (a) e densidade da c´opula Gumbel (b) com parˆametro α = 4 com amostra de tamanho 10000.

(v) C´opulas de Fr´echet

W (u1, . . . , un) = max(u1+ . . . + un− n + 1, 0)

Para n = 2, W representa a dependˆencia negativa perfeita entre as vari´aveis, n˜ao sendo uma c´opula para n ≥ 3;

M (u1, . . . , un) = min(u1, . . . , un)

(31)

2.3 C´opulas Importantes e Fam´ılias de C´opulas 29

(a)

(b)

(32)

2.3 C´opulas Importantes e Fam´ılias de C´opulas 30

2.3.1

Limites de Fr´

echet Associados a C´

opulas

Os limites de Fr´echet-Hoeffding, superior e inferior respectivamente, para fun¸c˜oes de distribui¸c˜ao conjuntas s˜ao definidos atrav´es das fun¸c˜oes com dom´ınio em [0, 1]n, Mn(u) =

min(u1, . . . , un) e Wn(u) = max(u1+ . . . + un− n + 1, 0).

A fun¸c˜ao Mn(u) e a c´opula de independˆencia Πn(u) =

n

Y

i=1

uis˜ao c´opulas n-dimensionais

para todo n ≥ 2, ao passo que a fun¸c˜ao Wn(u) n˜ao ´e uma c´opula para todos n ≥ 3, como

´e mostrado no exemplo seguinte.

Exemplo 2.3.1 Considere o n-cubo [1/2, 1]n⊂ [0, 1]n. Sejam (a

1, . . . , an) = (1/2, . . . , 1/2)

e (b1, . . . , bn) = (1, . . . , 1). De acordo com a Defini¸c˜ao (2.1.1) temos que para uj1 = aj e

uj2= bj, j ∈ {1, . . . , n}, 2 X i1=1 . . . 2 X in (−1)i1+...+inWn(u 1i1, . . . , unin) = = max(1 + . . . + 1 − n + 1, 0) −n 1  max(1/2 + 1 . . . + 1 − n + 1, 0)+ +n 2  max(1/2 + 1/2 + 1 . . . + 1 − n + 1, 0) − . . . + + max(1/2 + . . . + 1/2 − n + 1, 0) = 1 − n/2 + 0 + . . . + 0 = 1 − n/2.

Portanto, Wn(u) n˜ao ´e uma c´opula para n ≥ 3, uma vez que o item (iii) da defini¸ao

2.1.1 (para fun¸c˜oes de distribui¸c˜ao multidimensionais) n˜ao est´a satisfeita.

Os limites de Fr´echet-Hoeffding s˜ao uma consequˆencia do Teorema 2.1.

Teorema 2.3 (Desigualdade de Fr´echet-Hoeffding) Se C(u) ´e uma c´opula qualquer, ent˜ao para todo u ∈ [0, 1]n,

Wn(u)  C(u)  Mn(u). (2.27)

O limite inferior de Fr´echet-Hoeffding W2(u, v) = max(u + v − 1, 0) ´e menor que

qualquer c´opula bidimensional, e qualquer c´opula C(u) ´e menor que o limite superior de Fr´echet-Hoeffding Mn(u).

(33)

2.4 Exemplos Pr´aticos Utilizando o R 31

(a) (b) (c)

Figura 9: Curvas de n´ıvel da c´opula W (a), c´opula independente (b) e c´opula M (c).

2.4

Exemplos Pr´

aticos Utilizando o R

Nesta se¸c˜ao ser˜ao apresentados alguns exemplos pr´aticos que refor¸cam a teoria de c´opulas introduzida neste cap´ıtulo. Os comandos necess´arios para reprodu¸c˜ao dos mesmos encontram-se em anexo.

Exemplo 2.4.1 Obtendo a c´opula C(u, v) atrav´es de H(x, y)

Dada uma fun¸c˜ao de distribui¸c˜ao bivariada H(x, y), a correspondente c´opula ´e C(u, v) = P (U ≤ u, V ≤ v) = H(F−1(u), G−1(v)), para todo (u, v) ∈ [0, 1]2. Considere H(x, y) uma distribui¸c˜ao normal bivariada com margnais normal padr˜ao, com matriz de correla¸c˜ao dada por ˆΣ =

"

1 0, 7 0, 7 1

#

e vetor de m´edias dado por µ = "

0 0

#

. Abaixo encontram-se os gr´aficos de dispers˜ao de uma amostra de tamanho 10.000 proveniente de H e de C -via Teorema 2.1, e com densidade da c´opula equivalente `a Figura 2(a).

(a) (b)

Figura 10: Gr´aficos de dispers˜ao de uma amostra proveniente de H (a) e proveniente de C (b) de tamanho 10.000.

(34)

2.4 Exemplos Pr´aticos Utilizando o R 32

Exemplo 2.4.2 C´opula condicional

Considere a c´opula bivariada da distribui¸c˜ao Gumbel, apresentada no Exemplo 2.1.6, isto ´e, C(u, v) = u+v−uvuv . Ent˜ao, vamos calcular a c(v|u) da c´opula C(u, v).

c(v|u) = ∂ ∂u  uv u + v − uv 

= v(u + v − uv) − uv(1 − v) (u + v − uv)2

= v

2

(u + v − uv)2.

Para gerar uma observa¸c˜ao da c´opula C(u, v) dada: 1. Gerar u ∼ U (0, 1) e t ∼ U (0, 1);

2. A partir de t = cu(v) obtenha v = c−1u (t), onde c −1 u (t) ´e a inversa de cu(t), isto ´e c−1u (t) = u √ t 1−(1−u)√t ;

3. (u, v) ´e a observa¸c˜ao requerida de (U, V )

Figura 11: Gr´afico de dispers˜ao da c´opula bivariada C(u, v) = u+v−uvuv obtida atrav´es do algoritmo – amostra de tamanho 10.000.

Para outra aplica¸c˜ao de c´opulas condicionais veja [10].

Exemplo 2.4.3 Integra¸c˜ao de Monte Carlo usando c´opulas

O m´etodo de Monte Carlo, por exemplo, pode ser utilizado para modelar e quantificar a dependˆencia positiva entre distribui¸c˜oes de ocorrˆencias incertas [11]. Integra¸c˜ao de Monte Carlo usando teoria de c´opulas pode ser usado para modelar problemas financeiros [12]. Vamos exemplificar quando queremos obter o valor esperado de uma fun¸c˜ao cont´ınua q(x, y) de um vetor aleat´orio bivariado (X, Y ) com distribui¸c˜ao conjunta H(x, y), isto ´e,

(35)

2.4 Exemplos Pr´aticos Utilizando o R 33 E(q(x, y)) = Z ∞ −∞ Z ∞ −∞ q(x, y)dH(x, y).

Dada a c´opula C(u, v) = H(F−1(u), G−1(v)) e distribui¸c˜oes marginais F (x) = lim

y→∞H(x, y)

e G(y) = lim

x→∞H(x, y), n´os podemos usar o algoritmo abaixo para aproximar o valor de

E(q(x, y)):

1. Gerar n observa¸c˜oes de um vetor aleat´orio bivariado (X, Y ); 2. Para cada observa¸c˜ao i gerada, calcular qi = q(xi, yi);

3. E(q(x, y)) ≈ n1

n

X

i=1

qi.

Seja (X, Y ) com distribui¸c˜ao Gumbel bivariada, isto ´e H(x, y) = [1+exp(−x)+exp(−y)]−1. Com marginais inversas dadas por F−1(u) = − log 1−uu  e G−1(v) = − log 1−vv . Pre-tendemos estimar E(q(x, y)), onde q(x, y) = px2+ y2. O algoritmo ´e apresentado na

sequˆencia.

1. Para i = 1 at´e n, fa¸ca:

(a) gerar ui ∼ U (0, 1) e ti ∼ U (0, 1); (b) calcular vi = ui √ ti 1−(1−ui) √ ti; (c) calcular xi = − log  1−ui ui  e yi = − log  1−vi vi  ; (d) calcular qi =px2i + yi2. 2. Obtenha E(√X2+ Y2) ≈ 1 n n X i=1 qi.

Exemplo 2.4.4 Constru¸c˜ao do K-plot

O Kendall plot (K-plot), introduzido por Genest e Boies [13], avalia a estrutura de de-pendˆencia em uma amostra bivariada e pode ser constru´ıdo com os seguintes passos:

1. Calcular Hi = #{j6=i:Xj

≤Xi,Yj≤Yi}

n−1 para cada i = 1, . . . , n;

2. Ordenar os Hi0s, tal que H(1) ≤ . . . ≤ H(n);

3. Plotar os pares (W1:n, H(i)), 1 ≤ . . . ≤ n, onde W1:n representa o valor esperado

da i–th estat´ıstica de ordem de uma amostra de tamanho n e distribui¸c˜ao K0(w) =

(36)

2.4 Exemplos Pr´aticos Utilizando o R 34

(a) (b) (c)

(d) (e) (f)

(g) (h) (i)

(j) (k)

Figura 12: Kendall plot para diferentes valores de ρ.

Nesta subse¸c˜ao vimos alguns exemplos utilizando a teoria de c´opulas. Existem muitos trabalhos que prop˜oem algumas aplica¸c˜oes pr´aticas de c´opulas na ´area de risco e segu-ros, alguns deles s˜ao [14, 15, 16, 17]. Alguns autores discutem alguns tipos de c´opulas [18, 19, 20, 21, 22, 23]. Apesar de j´a existir muita literatura sobre c´opulas, algumas quest˜oes relacionadas a estas fun¸c˜oes s˜ao ainda um desafio, devido `a maioria das aplica¸c˜oes pr´aticas propostas restringir ao uso de c´opulas bivariadas. As c´opulas multivariadas mais

(37)

2.4 Exemplos Pr´aticos Utilizando o R 35

conhecidas e utilizadas s˜ao a c´opula Gaussiana e a c´opula-t. Alguns trabalhos prop˜oem algumas extens˜oes multivariadas de c´opulas Arquimedianas: [15, 18, 21, 24].

(38)

36

3

Dependˆ

encia de Extremos

3.1

Teoria dos Valores Extremos

A teoria de Valores Extremos (TVE) ´e um ramo da probabilidade que estuda o com-portamento assint´otico de extremos associados a uma sequˆencia de vari´aveis aleat´orias. Nesta se¸c˜ao faremos uma breve introdu¸c˜ao sobre os resultados da teoria de valores extre-mos para vari´aveis aleat´orias (i.i.d.) que ser˜ao relevantes ao nosso estudo.

Os fundamentos b´asicos da Teoria dos Valores Extremos foram inicialmente expos-tos por Fisher e Tippett [25], que introduziram os trˆes tipos poss´ıveis de distribui¸c˜ao assint´otica dos valores extremos, hoje conhecidas como Gumbel, Fr´echet e Weibull.

Na ´ultima d´ecada tem crescido a utiliza¸c˜ao dessa teoria nas ´areas de finan¸cas, atu´aria e engenharia principalmente devido `a sua capacidade em melhor quantificar as proba-bilidades de ocorrˆencia de eventos raros e fora dos padr˜oes de normalidade, uma vez que ela estuda o comportamento estoc´astico de extremos associado a um conjunto de vari´aveis aleat´orias com mesma fun¸c˜ao de distribui¸c˜ao F . A distribui¸c˜ao desses extremos ´e determinada pelas caudas extremas da distribui¸c˜ao F . Como a modelagem dessas s´eries requer an´alises que envolvam distribui¸c˜oes com caudas pesadas, n˜ao ´e pertinente a simples suposi¸c˜ao conveniente de normalidade.

3.1.1

Modelos Assint´

oticos

Sejam Xi, i = 1, 2, ..., n, vari´aveis aleat´orias (i.i.d.), com fun¸c˜ao de densidade comum

f e fun¸c˜ao de distribui¸c˜ao F , e representemos como Mk,n a k-´esima maior estat´ıstica de

ordem de X1, ..., Xn. A densidade fk,n e a fun¸c˜ao de distribui¸c˜ao de Fk,n de Mk,n podem

(39)

3.1 Teoria dos Valores Extremos 37 fk,n(z) = n! (n − k)!(k − 1)![F (z)] n−k [1 − F (z)]k−1f (z), (3.1) e Fk,n(z) = k−1 X j=0 n! j!(n − j)![F (z)] n−j[1 − F (z)]j, (3.2) para z no suporte de F .

Posteriormente ser´a necess´ario conhecer a distribui¸c˜ao conjunta das k−maiores es-tat´ısticas de ordem. Ent˜ao, o pr´oximo Teorema ir´a nos fornecer tal distribui¸c˜ao.

Teorema 3.1 (Embrechts, P., Kl¨uppelbeg, C., Mikosch, T. 1997) A densidade con-junta para as k maiores estat´ısticas de ordem, sendo F absolutamente continua com den-sidade f , ´e: fM1,n,...,Mk,n(x1, . . . , xn) = n! (n − k)!F n−k (xk) k Y i=1 f (xi), xk < . . . < x1. (3.3) ´

E f´acil verificar que a fun¸c˜ao de distribui¸c˜ao conjunta para as k−maiores estat´ısticas de ordem ´e dada pela seguinte express˜ao:

FM1,n,...,Mk,n(x1, . . . , xn) =

k−1

X

j=0

F (xk)n−j[F (xj) − F (xk)]j, xk < . . . < x1. (3.4)

Tamb´em ser´a necess´ario conhecer a fun¸c˜ao de densidade e distribui¸c˜ao conjunta entre a primeira e a segunda estat´ıstica de ordem, ambas s˜ao resultados decorrentes do Teorema anterior. Segue-se que, a fun¸c˜ao de densidade conjunta entre M1,n e M2,n´e dada por

fM1,n,M2,n(z, w) = n(n − 1)f (z)f (w)[F (w)]

n−2, 1 ≤ w < z ≤ n. (3.5)

E a fun¸c˜ao de distribui¸c˜ao conjunta entre M1,n e M2,n´e dada por

FM1,n,M2,n(z, w) = n[F (w)]

n−1[F (z) − F (w)], 1 ≤ w < z ≤ n. (3.6)

´

E f´acil verificar que ∂

2F

M1,n,M2,n(z,w)

∂z∂w = fM1,n,M2,n(z, w) = n(n − 1)f (z)f (w)[F (w)]

n−2.

Entretanto, para valores de n pequenos ´e necess´ario que se conhe¸ca previamente a distribui¸c˜ao F (que em geral ´e desconhecida) para que se estabele¸ca a distribui¸c˜ao do m´aximo e que, para valores de n sufcientemente grandes, a fun¸c˜ao de distribui¸c˜ao do

(40)

3.1 Teoria dos Valores Extremos 38

m´aximo torna-se degenerada, ou seja, FM1,n(x) → 0, quando n → +∞, ∀x ∈ R. A

teoria dos valores extremos fornece um resultado assint´otico, a generaliza¸c˜ao do Teorema de Fisher e Tippet [25], em que a fun¸c˜ao de distribui¸c˜ao limite independe da fun¸c˜ao de distribui¸c˜ao primitiva F .

Teorema 3.2 (Fisher-Tippett) Seja {Xn : n ≥ 1} uma sequˆencia de vari´aveis aleat´orias

i.i.d. com fun¸c˜ao de distribui¸c˜ao F e M1,n o m´aximo de {Xn}∞n=1. Se existir uma

sequˆencia (an) de termos positivos, uma sequˆencia real (bn) e uma fun¸c˜ao de distribui¸c˜ao

G1 n˜ao degenerada tais que

P (M1,n≤ anz + bn) = P  M1,n− bn an ≤ z  d → G1(z) quando n → ∞ (3.7)

ent˜ao as ´unicas formas poss´ıveis de G1 s˜ao as distribui¸c˜oes Gumbel, Fr´echet ou Weibull,

tamb´em denominadas distribui¸c˜oes do tipo I, II e III, respectivamente.

Defini¸c˜ao 3.1.1 Se (3.7) se verifica, dizemos que F pertence ao dom´ınio de atra¸c˜ao do m´aximo da distribui¸c˜ao de valores extremos G1. Nota¸c˜ao: F ∈ M DA(G1).

A seguir est˜ao apresentadas as distribui¸c˜oes limite do m´aximo (definida como G1),

deno-minadas distribui¸c˜oes extremas ou fam´ılia das distribui¸c˜oes GEV (Generalized Extreme Value): I : G1(z) = exp  − exp  − z − µ σ  , −∞ < z < +∞; II : G1(z) =        0 , z ≤ µ, exp ( − z − µ σ −ξ) , z > µ; III : G1(z) =        exp ( −  −z − µ σ −ξ) , z < µ, 1 , z ≥ µ;

(41)

3.1 Teoria dos Valores Extremos 39

Note que o Teorema de Fisher-Tippett especifica as distribui¸c˜oes extremas limite para as quais h´a a possibilidade de convergˆencia da distribui¸c˜ao do m´aximo padronizado

M1,n−bn

an , embora n˜ao estabele¸ca as condi¸c˜oes que F deve satisfazer para que ocorra tal

convergˆencia.

As distribui¸c˜oes I, II e III podem ser estimadas sem que se fa¸ca necess´ario a utiliza¸c˜ao da distribui¸c˜ao F . Uma vez estimada a distribui¸c˜ao limite, entretanto, inferˆencias acerca da distribui¸c˜ao verdadeira F podem ser feitas, uma vez que de G1(z) = FM1,n(z) obt´em-se

F (z) = [G1(z)]1/n.

Segue abaixo um exemplo da convergˆencia da distribui¸c˜ao do m´aximo proveniente de observa¸c˜oes com fun¸c˜ao de distribui¸c˜ao exponencial unit´aria para a distribui¸c˜ao Gumbel.

Exemplo 3.1.2 Suponha que F seja a distribui¸c˜ao exponencial unit´aria, ou seja, F (z) = 1 − exp{−z}. Ent˜ao [F (z)]n= [1 − exp{−z}]n. Como

P  M1,n− bn an

≤ z 

= P (M1,n≤ anz + bn) = [F (anz + bn)]n,

tomando an= 1 e bn= log n, temos que

[F (z + log n)]n= [1 − exp[−(z + log n)]]n = [1 − exp[−z − log n]]n =  1 − exp(−z) exp(log n) n =  1 − exp(−z) n n

definindo − exp(−z)n = x1, temos

lim n→∞  1 − exp(−z) n n = lim x→∞  1 + 1 x x(− exp(−z)) = lim x→∞  1 + 1 x x− exp(−z) = exp(− exp(−z)).

Ou seja, considerando an = 1 e bn = log n como sequˆencias normalizadoras, temos que

quando n cresce indefinidamente a distribui¸c˜ao do m´aximo coletado em blocos de tamanho n de observa¸c˜oes com fun¸c˜ao de distribui¸c˜ao unit´aria ser´a a distribui¸c˜ao Gumbel.

(42)

3.1 Teoria dos Valores Extremos 40

3.1.1.1 Distribui¸c˜ao Generalizada de Valor Extremo

As distribui¸c˜oes de Gumbel, Fr´echet e Weibull podem ser generalizadas em uma firma denominada distribui¸c˜ao de valor extremo (GEV ), que representa uma fam´ılia de fun¸c˜oes de distribui¸c˜ao de um ´unico parˆametro ξ, como segue:

G1ξ(z) =    exp h −(1 + ξz)−1ξ i , ξ 6= 0, 1 + ξz > 0 exp[− exp(−z)] , ξ = 0 . (3.8) Note que:

- se ξ = 0, G1ξ corresponde `a distribui¸c˜ao Gumbel;

- se ξ < 0, G1ξ corresponde `a distribui¸c˜ao Weibull e

- se ξ > 0, G1ξ corresponde `a distribui¸c˜ao Fr´echet.

Na fun¸c˜ao de distribui¸c˜ao generalizada G1ξ ´e poss´ıvel substituir z pela transforma¸c˜ao

de escala e loca¸c˜ao T (z) = z−µσ , µ ∈ R, σ > 0, de modo que a fam´ılia de loca¸c˜ao e escala G1ξ,µ,σ correspondente ´e: G1ξ(T (z)) = G1ξ,µ,σ(z) =          exp " −  1 + ξ z − µ σ −1ξ# , ξ 6= 0, 1 + ξ z−µσ  > 0 exp  − exp  − z − µ σ  , ξ = 0 . (3.9) A fun¸c˜ao densidade de probabilidade da distribui¸c˜ao generalizada G1ξ pode ser obtida

por diferencia¸c˜ao e aplica¸c˜ao da regra da cadeia e segue abaixo:

fξ(z) =           1 + ξ z − µ σ −1ξ −1 exp " −  1 + ξ z − µ σ −1ξ# , ξ 6= 0, µ ∈ R, σ > 0 exp  − exp  − z − µ σ  exp  −z − µ σ  1 σ , ξ = 0, µ ∈ R, σ > 0 . (3.10) Por conveniˆencia, vamos reformular o Teorema 3.2 para a forma generalizada.

Teorema 3.3 (Fisher-Tippett) Seja {Xn : n ≥ 1} uma sequˆencia de vari´aveis aleat´orias

i.i.d. com fun¸c˜ao de distribui¸c˜ao F e M1,n o m´aximo de {Xn}∞n=1. Se existir uma

sequˆencia (an) de termos positivos, uma sequˆencia real (bn) e uma fun¸c˜ao de distribui¸c˜ao

(43)

3.1 Teoria dos Valores Extremos 41 P (M1,n ≤ anz + bn) = P  M1,n− bn an ≤ z  → G1ξ(z) quando n → ∞

ent˜ao G1ξ ´e membro da fam´ılia GEV:

G1ξ(z) = exp ( −  1 + ξ z − µ σ −1ξ) , (3.11) definida em {z : 1 + ξ(z − µ)/σ > 0}, onde −∞ < µ < +∞, σ > 0 e −∞ < ξ < ∞.

3.1.2

O Modelo Para as K−maiores Estat´ısticas de Ordem

Na se¸c˜ao anterior, conclu´ımos que a distribui¸c˜ao de M1,n converge para G1(z), mas

torna-se necess´ario generalizar para as K-maiores estat´ısticas de ordem, identificando qual o comportamento limite, para K fixo, quando n → ∞. Os resultados a seguir generalizam o Teorema 3.2.

Teorema 3.4 (Leadbetter, M., Lindgren, G., Rootz´en, H. (1983)) Supondo exis-tirem sequˆencias de constantes an > 0 e bn tais que

P  M1,n− bn an

≤ z 

→ G1(z) quando n → ∞,

onde G1 ´e uma fun¸c˜ao de distribui¸c˜ao n˜ao-degenerada, tal que G1 ´e uma GEV dada por

(3.11), ent˜ao para m = 1, 2, . . . , P Mm,n − bn an ≤ z  → Gm(z) onde Gm(z) =              exp{−Λ(z)} m−1 X j=0 Λ(z)j j! , se ε z−µ σ  > −1 para ε 6= 0 ou z ∈ R para ε = 0 0 , se z < µ − σε para ε > 0 1 , se z > µ − σε para ε < 0 . (3.12)

(44)

3.1 Teoria dos Valores Extremos 42

Derivando a express˜ao (3.12), obtemos a densidade

gm(z) =      exp{−Λ(z)}Λ 0(z)Λ(z)m−1 (m − 1)! , se ε z−µ σ  > −1 para ε 6= 0 ou z ∈ R para ε = 0

0 , caso contr´ario,

.

(3.13) onde Λ(z) = − log(G1(z)), Λ0(z) = dΛ(z)/dz, tamb´em

Λ(z) = Λε,µ,σ(z) =         1 + ε z − µ σ 1/ε , se ε 6= 0 exp  −z − µ σ  , se ε = 0, (3.14)

para algum −∞ < µ < ∞, σ > 0 e −∞ < ε < ∞. A distribui¸c˜ao enunciada acima ´e chamada de distribui¸c˜ao Generalized Extreme Value (GEV ), e classificada como sendo do tipo I (Gumbel), II (Fr´echet) e III (Weibull) de acordo com os respectivos valores para ε = 0, ε > 0 e ε < 0.

A distribui¸c˜ao conjunta exata de (M1,n, M2,n, . . . , MK,n) tamb´em n˜ao pode ser usada

para inferˆencias, pois, como no caso anterior, esta depende da distribui¸c˜ao primitiva F . Se F est´a no dom´ınio de atra¸c˜ao de alguma distribui¸c˜ao de valores extremos G1(ε, µ, σ)

com ε 6= 0 e com sequˆencias de constantes normalizadoras {an > 0} e {bn}, ent˜ao a

distribui¸c˜ao limite quando n → ∞ de  M1,n− bn an , . . . ,MK,n− bn an  , tem a seguinte fun¸c˜ao de densidade conjunta

˜ g(z1, . . . , zK) = exp ( −  1 + ε zK − µ σ −1/ε) K Y i=1 1 σ  1 + ε zi− µ σ −1/ε−1 , (3.15)

no conjunto dos valores de zi, i = 1, . . . , K, tal que 1 + ε(zi− µ)/σ > 0 e zK ≤ . . . ≤ z1.

Em (3.15), as constantes de escalas desconhecidas s˜ao absorvidas pelo parˆametro de forma ε, j´a que esta fornece a express˜ao da distribui¸c˜ao limite conjunta para os trˆes tipos de GEV. Quando ε → 0, ˜ g(z1, . . . , zK) = exp  − exp  − zK − µ σ  K Y i=1 1 σexp  −zi− µ σ  , (3.16)

(45)

3.2 A C´opula Bi-extremal 43

onde µ ∈ R e zK ≤ . . . ≤ z1. Em (3.16), o caso K = 1 se reduz na densidade da fam´ılia

Gumbel. Uma outra express˜ao mais geral, que inclua os trˆes casos ´e:

˜ gK(z1, . . . , zK) =        (−1)Kexp{−Λ(zk)} K Y j=1 Λ0(zj) , se(z1, . . . , zK) ∈ Ωε

0 , caso contr´ario

(3.17) onde Ωε =        RK , se ε = 0 {(z1, . . . , zK) ∈ RK : z1 > . . . > zK > µ − σ/ε} , se ε > 0 {(z1, . . . , zK) ∈ RK : µ − σ/ε > z1 > . . . > zK} , se ε < 0. (3.18)

A distribui¸c˜ao cuja densidade ´e fornecida em (3.17) com parˆametros −∞ < µ < ∞, σ > 0 e −∞ < ε < ∞ ´e chamada de distribui¸c˜ao Multivariate Generalized Extreme Value (MGEV).

3.2

A C´

opula Bi-extremal

Nesse cap´ıtulo iremos reproduzir a express˜ao da c´opula pertinente `as duas maiores estat´ısticas de ordem, que foi chamada de c´opula bi-extremal, conforme [6].

3.2.1

Determina¸

ao

A distribui¸c˜ao marginal limite do m´aximo M1,n e da segunda maior M2,n s˜ao dadas

por

G1(z) = exp{−Λ(z)} (3.19)

G2(z) = exp{−Λ(z)}[1 + Λ(z)]. (3.20)

Onde, Λ(z) = − log(G1(z)). E as densidades marginais s˜ao dadas por

g1(z) = exp{−Λ(z)}Λ0(z) (3.21)

g2(z) = exp{−Λ(z)}Λ0(z)Λ(z). (3.22)

(46)

3.2 A C´opula Bi-extremal 44 assint´otica ˜ g2(z1, z2) =        (−1)2exp{−Λ(z2)} 2 Y i=1 Λ0(zi) , (z1, z2) ∈ Ωε

0 , caso contr´ario

. (3.23) Onde Ωε =          R2 , ε = 0 n (z1, z2) ∈ R2 : z1 > z2 > µ − σ ε o , ε > 0 n (z1, z2) ∈ R2 : µ − σ ε > z1 > z2 o , ε < 0 . (3.24) Isto ´e, ˜ g2(z1, z2) =            (−1)2exp{−Λ(z2)} 2 Y i=1 Λ0(zi) , zi ∈ R se ε = 0, z1 > z2 e 1 + εzi > 0 se ε 6= 0; i = 1, 2.

0 , caso contr´ario

.

(3.25) A partir desse ponto e utilizando os resultados obtidos anteriormente, Mendes e Sanfins [6], obtiveram a densidade cBIX da c´opula bi-extremal e a c´opula CBIX.

Teorema 3.5 (Sanfins e Mendes 2007 - A desnsidade da c´opula CBIX) A fun¸c˜ao

de densidade da c´opula bi-extremal, pertinente `a distribui¸c˜ao limite das duas maiores es-tat´ısticas de ordem oriundas de uma sequˆencia de vari´aveis aleat´orias (i.i.d.) ´e dada por: cBIX(u, v) =    ψ(v) u(v − ψ(v)) , 0 ≤ u, v, ψ(v) ≤ 1, ψ(v) ≤ u, ψ(v) ≤ v 0 , caso contr´ario

. (3.26)

Onde v = ψ(v)(1 − log(ψ(v))). (3.27)

Prova: Substituindo as express˜oes (3.21), (3.22), (3.23) em (2.6), tem-se que: g(z1, z2) = exp{−Λ(z2)}Λ0(z1)Λ0(z2)

= c(u, v) exp{−Λ(z1)}Λ0(z1)(− exp{−Λ(z2)}Λ0(z2)Λ(z2)).

Isto ´e, c(u, v) = exp{−Λ(z1

1)}Λ(z2). Sabemos que Λ(z1) = − log(G1(z1)). Ent˜ao, isso implica

que exp{−Λ(z1)} = G1(z1) = u. Da´ı, obt´em-se que c(u, v) = uΛ(z1

2). Defina ψ(v) =

(47)

3.2 A C´opula Bi-extremal 45

que v = ψ(v)(1 − log(ψ(v))) ⇔ log(ψ(v)) = −v−ψ(v)ψ(v) = ψ(v)−vψ(v) . Logo, c(u, v) = u(ψ(v)−v)ψ(v) . Note que se z2 ≤ z1 ⇒ ψ(v) = − exp{−Λ(z2)} e de (3.19), tem-se que ψ(v) ≤ u. Al´em

disso, se G1(z2) < G2(z2) ent˜ao ψ(v) < v, pois G1(z2) = − exp{−Λ(z2)} = ψ(v) e

G2(z2) = v.

A fun¸c˜ao de distribui¸c˜ao bivariada limite das duas maiores estat´ısticas de ordem ´e dada por ˜ G2(z1, z2) = ( exp{−Λ(z2)}[1 + Λ(z2) − Λ(z1)] , z2 ≤ z1 exp{−Λ(z1)} , z2 > z1 . Prova: (i) z2 ≤ z1 ˜ G2(z1, z2) = 1 − P (M1,n> z1) | {z } a − P (M2,n > z2) | {z } b + P (M1,n > z1, M2,n> z2) | {z } c a. P (M1,n> z1) = 1 − P (M1,n≤ z1) = 1 − G1(z1) = 1 − exp[−Λ(z1)]. b. P (M2,n> z2) = 1 − P (M2,n≤ z2) = 1 − G2(z2) = 1 − exp{−Λ(z2)}[1 + Λ(z2)]. c. P (M1,n> z1, M2,n> z2) = Z +∞ z1 Z +∞ z2 exp[−Λ(z2)]Λ0(z2)Λ0(z1)dz1  dz2 = Z +∞ z1 Z z1 z2 exp[−Λ(z2)]d[−Λ(z2)]d[−Λ(z1)]  = Z +∞ z1 {exp{−Λ(z2)}|zz12}d[−Λ(z1)] = Z +∞ z1 exp{−Λ(z1)}d[−Λ(z1)] − Z +∞ z1 exp{−Λ(z2)}d[−Λ(z1)] = {exp{−Λ(z1)}|+∞z1 } − exp{−Λ(z2)}{−Λ(z1)| +∞ z1 } = 1 − exp{−Λ(z1)} − exp{−Λ(z2)}[Λ(z1)].

Note que lim

z1→+∞

exp[−Λ(z1)] = lim z1→+∞

(48)

3.2 A C´opula Bi-extremal 46

Juntando a., b. e c., tem-se que: ˜

G2(z1, z2) = 1 − (1 − exp{−Λ(z1)}) − (1 − exp{−Λ(z2)}[1 + Λ(z2)])

+ (1 − exp{−Λ(z1)} − exp{−Λ(z2)}[Λ(z1)])

= exp{−Λ(z2)} + exp{−Λ(z2)}[Λ(z2)] − exp{−Λ(z2)}[Λ(z1)]

= exp{−Λ(z2)}[1 + Λ(z2) − Λ(z1)]. (ii) z2 > z1 ˜ G2(z1, z2) = P (M1,n ≤ z1, M2,n≤ z2) = Z z1 −∞ Z z1 z1 exp{−Λ(z2)}[Λ0(z1)][Λ0(z2)]dz2dz1 = Z z1 −∞ exp{−Λ(z1)}[Λ0(z1)]dz1 = Z z1 −∞ exp{−Λ(z1)}d[Λ(z1)] = exp{−Λ(z1)}|z−∞1 = exp{−Λ(z1)} − lim z1→−∞ exp{−Λ(z1)} = exp{−Λ(z1)} − lim z1→−∞ G1(z1) = exp{−Λ(z1)} = G1(z1) = u.

Do Teorema 2.1, tem-se que CBIX(u, v) = ˜G2(G−11 (u), G −1

2 (v)). Sabe-se que G1(z1) =

exp{−Λ(z1)} = u ⇒ −Λ(z1) = log(u), ent˜ao pode-se escrever z1 = (− log(u))

−ε−1

ε = G −1 1 (u)

devido a ´ultima igualdade a seguir

G1(z) = exp{−[1 + εz]−1/ε} ⇔ log(G1(z)) = −[1 + εz]−1/ε ⇔ − log(G1(z)) = [1 + εz]−1/ε ⇔ [− log(G1(z))]−ε= 1 + εz ⇔ z = [− log(G1(z))] −ε− 1 ε .

Al´em disso, sabe-se tamb´em que G2(z2) = exp{−Λ(z2)}[1 + Λ(z2)] = v, ent˜ao pode-se

escrever z2 = (− log(ψ(v)))−ε− 1 ε = G −1 2 (v) (3.28)

(49)

3.2 A C´opula Bi-extremal 47

pois ψ(v) = exp{−Λ(z2)} ⇒ Λ(z2) = − log(ψ(v)). Ainda, veja que v = ψ(v)[1 −

log(ψ(v))] ⇔ v−ψ(v)ψ(v) = − log(ψ(v)). Da´ı, substituindo em 3.28, tem-se que

z2 =  v−ψ(v) ψ(v) −ε − 1 ε (3.29) ⇔ εz2 =  v − ψ(v) ψ(v) −ε − 1 (3.30) ⇔ (1 + εz2)−1/ε = v − ψ(v) ψ(v) . (3.31) Como v = ψ(v)[1 − log(ψ(v))] (3.32) ⇔ v = ψ(v)[1 + Λ(z2)] (3.33) ⇔ Λ(z2) = v − ψ(v) ψ(v) . (3.34)

Associando (3.31) e (3.34) tem-se que Λ(z2) =

v − ψ(v)

ψ(v) = (1 + εz2)

−1/ε

. (3.35)

Ainda, associando (3.29) e (3.35) tem-se que

Λ(z2) =   1 + ε  v−ψ(v) ψ(v) −ε − 1 ε    −1/ε . (3.36)

Assim, tem-se os argumentos necess´arios para se obter a c´opula CBIX.

Teorema 3.6 (Sanfins e Mendes 2007 - A c´opula CBIX) A c´opula bi-extremal CBIX,

pertinente ´a distribui¸c˜ao limite das duas maiores estat´ısticas de ordem oriundas de uma sequˆencia de vari´aveis aleat´orias (i.i.d.), ´e dada por

CBIX(u, v) =

(

v + ψ(v) log(u) , v ≤ u(1 − log(u))

u , v > u(1 − log(u)) . (3.37)

Prova:

(50)

3.2 A C´opula Bi-extremal 48

v = ψ(v)(1 − log(ψ(v))) ⇒ v ≤ u(1 − log(u)). Para v ≤ u(1 − log(u)), tem-se que ˜ G2(G−11 (u), G −1 2 (v)) = exp  −v − ψ(v) ψ(v)   1 + v − ψ(v) ψ(v) + log(u)  = exp  −v − ψ(v) ψ(v)   ψ(v) + v − ψ(v) ψ(v) + log(u)  = exp  −v − ψ(v) ψ(v)   v ψ(v) + log(u)  . Mas v = ψ(v)(1 − log(ψ(v))). Ent˜ao,

˜ G2(G−11 (u), G −1 2 (v)) = exp  −ψ(v) − ψ(v) log(ψ(v)) − ψ(v) ψ(v)   v ψ(v) + log(u)  = exp {log(ψ(v))}  v ψ(v) + log(u)  = v + ψ(v) log(u).

(ii) Se z2 > z1 e para ε > 0, tem-se que exp{Λ(z1)} = G1(z1) = v < ψ(v) = G1(z2) <

G2(z2) = v, logo CBIX = u = min{u, v}.

Segundo a Defini¸c˜ao 2.1.1, a c´opula bi-extremal deve satisfazer as trˆes propriedades. Isto ´e, deve satisfazer:

(i) C(u, 0) = 0 = C(0, v), ∀u, v; (ii) C(u, 1) = u e C(1, v) = v;

(iii) C(u2, v2) − C(u2, v1) − C(u1, v2) + C(u1, v1) ≥ 0, tal que u1 ≤ u2, v1 ≤ v2.

Prova:

(i) Note que o maior valor que v assume ´e u(1−log(u)). Da´ı, C(u, 0) = 0+ψ(v) log(u) = 0 + 0 log(u) = 0 e C(0, v) = lim

u→0(v + ψ(v) log(u)) ≤ limu→0[u(1 − log(u)) + u log(u)] =

= lim

u→0[u − u log(u) + u log(u)] = limu→0u = 0.

(ii) Veja que C(u, 1) = u(1 − log(u)) + u log(u) = u e C(1, v) = v + ψ(v) log(u) = v + ψ(v) log(1) = v.

(51)

3.2 A C´opula Bi-extremal 49

(iii) Sejam a, b, c, d ∈ (0, 1) com a ≤ b e c ≤ d, logo:

C(b, d) − C(b, c) − C(a, d) + C(a, c) = (d + ψ(d) log(b)) − (c + ψ(c) log(b)) − (d + ψ(d) log(a)) + (c + ψ(c) log(a)) = d + ψ(d) log(b) − c − ψ(c) log(b) − d − ψ(d) log(a) + c + ψ(c) log(a)

= ψ(d) log(b) − ψ(c) log(b) − ψ(d) log(a) + ψ(c) log(a) = ψ(d)(log(b) − log(a)) + ψ(c)(log(a) − log(b))

= (ψ(d) − ψ(c))(log(b) − log(a)).

Como (ψ(d) − ψ(c)) ≥ 0 e (log(b) − log(a)) ≥ 0, tem-se que (ψ(d) − ψ(c))(log(b) − log(a)) ≥ 0, isto ´e, C(u2, v2) − C(u2, v1) − C(u1, v2) + C(u1, v1) ≥ 0.

3.2.2

opula Condicional - A LTDC

C´opulas condicionais s˜ao ´uteis quando temos acesso a um vetor de co-vari´aveis que tem informa¸c˜oes sobre a estrutura de dependˆencia das vari´aveis de interesse e tˆem im-portantes aplica¸c˜oes, quando somos obrigados a estimar as distribui¸c˜oes condicionais ou incondicionais de dados.

´

E interessante estudar a estrutura de dependˆencia da c´opula nas regi˜oes superior ou inferior, ou seja, pr´oximo `a regi˜ao limite (1, 1) ou (0, 0). Este fato torna-se interessante, pois, em muitos casos, esta estrutura limite ´e completamente diferente do todo. Visando a um melhor entendimento sobre esta estrutura, Charpentier introduziu o conceito da LTDC (the lower tail dependence copula) [5], que nada mais ´e do que a c´opula condicional de (U, V ) dada a ocorrˆencia de (U ≤ u, V ≤ v). Al´em desta nova c´opula que reflete a estrutura de dependˆencia condicional, tamb´em podemos estudar o limite desta distribu¸c˜ao quando u e v tende a 1 ou 0, o que permite conhecer exatamente o comportamento das caudas.

Seja (U, V ) o vetor aleat´orio em [0, 1]2 com fun¸c˜ao distribui¸c˜ao C e definido para todo

(u, v) ∈ [0, 1]2 o evento Ξ = {U ≤ u} ∩ {V ≤ v}. A distribui¸c˜ao condicional de (U, V )

dado Ξ, FC|Ξ ´e dada por

FC|Ξ(x, y) = P (U ≤ x, V ≤ y|Ξ) =

C(x, y)

(52)

3.2 A C´opula Bi-extremal 50

As distribui¸c˜oes marginais s˜ao dadas por

FU |Ξ(x) = FC|Ξ(x, v) = C(x, v) C(u, v) (3.39) FV |Ξ(y) = FC|Ξ(u, y) = C(u, y) C(u, v). (3.40)

A LTDC, referente a C, denotada por ΦC|Ξ, ´e:

ΦC|Ξ(z, w) = FC|Ξ(FU |Ξ−1(z), FV |Ξ−1(w)) =

C(FU |Ξ−1(z), FV |Ξ−1(w))

C(u, v) . (3.41)

A defini¸c˜ao acima ´e de extrema importˆancia, pois possibilita encontrar o comportamento limite da estrutura de dependˆencia entre as vari´aveis. Para o caso da bi-extremal, esta defini¸c˜ao torna-se ainda mais interessante, visto que ir´a possibilitar entender o compor-tamento dos valores extremos.

Teorema 3.7 A LTDC para c´opula bi-extremal ´e dada por

ΦC|Ξ(z, w) =

(

zw , FV |Ξ−1(w)) ≤ FU |Ξ−1(z)(1 − log(FU |Ξ−1(z)))

z , FV |Ξ−1(w)) > FU |Ξ−1(z)(1 − log(FU |Ξ−1(z))) . (3.42)

Prova:

(i) Quando v ≤ u(1 − log(u)):

FC|Ξ(x, y) = C(x, y) C(u, v) =      y + ψ(y) log(x) v + ψ(v) log(u) , y ≤ x(1 − log(x)) x v + ψ(v) log(u) , y > x(1 − log(x)) . (3.43) FU |Ξ(x) = FC|Ξ(x, v) =      v + ψ(v) log(x) v + ψ(v) log(u) , v ≤ x(1 − log(x)) x v + ψ(v) log(u) , v > x(1 − log(x)) . (3.44) FV |Ξ(y) = FC|Ξ(u, y) =      y + ψ(y) log(u)

v + ψ(v) log(u) , y ≤ u(1 − log(u)) u

v + ψ(v) log(u) , y > u(1 − log(u))

. (3.45)

Vamos calcular as inversas relativas `as distribui¸c˜oes marginais de U e V , isto ´e, FU |Ξ−1 e FV |Ξ−1.

(53)

3.2 A C´opula Bi-extremal 51 (3.44), tem-se que z = FU |Ξ(x) ⇒ x = FU |Ξ−1(z) ⇒ exp  z(v + ψ(v) log(u)) − v ψ(v)  = x. (3.46) A partir da distribui¸c˜ao marginal condicional FV |Ξ−1 em (3.45), tem-se que

w = FV |Ξ(y) ⇒ y = FV |Ξ−1(w) (3.47)

w = y + ψ(y) log(u)

v + ψ(v) log(u) ⇔ (v + ψ(v) log(u))w = y + ψ(y) log(u) (3.48) Substituindo (3.46) e (3.48) em (3.43), tem-se: ΦC|Ξ(z, w) = FC|Ξ(FU |Ξ−1(z), FV |Ξ−1(w)) = y + ψ(y) log  exp{z(v+ψ(v) log(u))−vψ(v) } v + ψ(v) log(u) = h v + ψ(v)z(v+ψ(v) log(u))−ψ(v)vψ(v) i w v + ψ(v) log(u) = (ψ(v)v + ψ(v)[zv + zψ(v) log(u)] − ψ(v)v) w ψ(v) v + ψ(v) log(u) = (ψ(v)zv + zψ(v) 2log(u)]) w ψ(v) v + ψ(v) log(u) = (zv + zψ(v) log(u)])w v + ψ(v) log(u) = (v + ψ(v) log(u)])zw v + ψ(v) log(u) = zw.

Portanto, a LTDC da c´opula bi-extremal ´e a c´opula produto quando y ≤ x(1 − log x). Logo, para todo par bivariado (u, v) dado, a LTDC ´e a c´opula produto, o que caracteriza que condicionalmente as vari´aveis s˜ao independentes.

b. Seja y > x(1 − log(x)). A partir da distribui¸c˜ao marginal condicional FU |Ξ−1 em (3.44), tem-se que

z = FU |Ξ(x) =

x

v + ψ(v) log(u) ⇔ x = z(v + ψ(v) log(u)).

(54)

3.2 A C´opula Bi-extremal 52

A partir da distribui¸c˜ao marginal condicional FV |Ξ−1 em (3.45), tem-se que

w = FV |Ξ(y) = u v + ψ(v) log(u). Da´ı, ΦC|Ξ(z, w) = z(v + ψ(v) log(u)) v + ψ(v) log(u) = z.

Portanto, a LTDC da c´opula bi-extremal ´e o m´aximo quando y > x(1 − log x). Logo, para todo par bivariado (u, v) dado, a LTDC ´e a c´opula de dependˆencia positiva perfeita, isto ´e min{z, w} = z, o que caracteriza que condicionalmente, no limite, o m´aximo e o segundo maior n˜ao s˜ao diferenciados por ordem. (ii) Quando v > u(1 − log(u)).

FC|Ξ(x, y) = C(x, y) C(u, v) =    y + ψ(y) log(x) u , y ≤ x(1 − log(x)) x u , y > x(1 − log(x)) . (3.49) FU |Ξ(x) = FC|Ξ(x, v) = x u (3.50) FV |Ξ(y) = FC|Ξ(u, y) =    y + ψ(y) log(u) u , y ≤ u(1 − log(u)) 1 , y > u(1 − log(u)) . (3.51)

Vamos calcular as inversas relativas `as distribui¸c˜oes marginais de U e V , isto ´e, FU |Ξ−1 e FV |Ξ−1.

a. Seja y ≤ x(1 − log(x)). A partir da distribui¸c˜ao marginal condicional FU |Ξ−1 em (3.50), tem-se que

z = FU |Ξ(x) ⇒ x = FU |Ξ−1(z) ⇒ x = uz. (3.52)

A partir da distribui¸c˜ao marginal condicional FV |Ξ−1 em (3.51), tem-se que

w = FV |Ξ(y) ⇒ y = FV |Ξ−1(w) (3.53)

w = y + ψ(y) log(u)

u ⇔ uw = y + ψ(y) log(u) (3.54)

Referências

Documentos relacionados

A proposta desta pesquisa objetivou desenvolver o estudante para realizar a percepção sobre o estudo da complexidade do corpo humano, onde o educando teve oportunidade

O trabalho tem como objetivo elucidar a importância do brincar para as crianças, do contato delas com a natureza, de sua ação de ocupar espaços públicos na cidade, como praças e

Através das observações realizadas em campo, buscamos enfatizar de forma simples a perspectiva dos conselhos escolares como peça essencial para o desenvolvimento do trabalho

Embora o momento ideal para obtenção de sementes de alta qualidade, seja logo após a maturidade fisiológica, a alta umidade da semente e da própria planta, associada ao

Neste capítulo, será apresentada a Gestão Pública no município de Telêmaco Borba e a Instituição Privada de Ensino, onde será descrito como ocorre à relação entre

H´a dois tipos de distribui¸co˜es de probabilidades que s˜ao as distribui¸c˜oes discretas que descrevem quantidades aleat´orias e podem assumir valores e os valores s˜ao finitos, e

À Deus pelo dom da vida, pela fé e perseverança para vencer os obstáculos. A minha mãe, pela orientação, dedicação e incentivo nessa fase do curso de pós-graduação e

Traçar um perfil das mulheres trabalhadoras não trata apenas de definir características dessas mulheres, mas também de compará-las aos homens trabalhadores, para