• Nenhum resultado encontrado

Quantificação da relação entre variáveis aleatórias

O ponto de partida para muitas análises estatísticas é investigar a relação entre variáveis aleatórias, documentada tipicamente através dos gráficos de dispersão7 bivariados que exibem padrões de dependência entre variáveis aleatórias.

De maneira geral, a relação (de dependência) entre variáveis aleatórias pode ser linear ou não linear, bem como positiva, negativa ou neutra. Por relação positiva entende-se a situação na qual valores ‘elevados’ de uma variável estão associados (ou ocorrem, na maioria das vezes, concomitantemente) com valores ‘elevados’ da outra variável.

Por meio desta simples verificação de relação entre duas variáveis é possível proceder a análises tradicionais como regressões – lineares ou não – que podem quantificar adequadamente o grau de dependência entre as variáveis, além de fornecer todo um ferramental próprio para entendimento da variação, realização de inferência e predição de observações futuras.

Neste contexto os termos dependência, associação, relação e correlação acabaram tornando-se sinônimos na Estatística, apesar de terem significados ligeiramente distintos sob o ponto de vista semântico.

Além da constatação gráfica da dependência entre variáveis aleatórias, pode-se resumir o grau de dependência em um número, porém sob o custo de perda de informação e redução da dimensão dos dados, a exemplo do que ocorre com a média amostral sX –

1

n

n ÿ

i“1

Xi, que é uma medida de locação; a variância amostral S2 – 1

n ´1 n ÿ i“1 `Xi´ sX ˘2 , que é uma medida de dispersão; o coeficiente de assimetria 1

n n ÿ i“1 „ Xi´ sX ? S2 3 , que é uma medida de simetria dos dados e com a curtose amostral 1

n n ÿ i“1 „ Xi ´ sX ? S2 4 , que é uma medida do achatamento da distribuição.

Ao buscar resumir a dependência de duas variáveis aleatórias a um único número, recorre-se, comumente, ao coeficiente de correlação linear de Pearson – ρ.

O coeficiente ρ, contido sempre no intervalo r´1, 1s, mede unicamente depen- dência linear entre duas variáveis aleatórias. Tal fato não acarreta consequências mais sérias contanto que ambas as variáveis possuam o segundo momento finito8 e que a dependência entre elas seja de fato linear.

O coeficiente é invariante às transformações lineares positivas, porém não às estritamente crescentes, o que deixa de ser interessante quando se leva em conta a vantagem proporcionada pelas cópulas em tais transformações (Apêndice A.1). Em termos matemáticos, isso significa que ρpa1X `b1, a2Y `b2q “Sinalpa1¨b1qρpX, Y qpara constantes

a1, a2, b1, b2 P R – e evidentemente ρpa1X ` b1, a2Y ` b2q “ ρpX, Y q quando a1 e b1 são

constantes positivas – porém, no geral ρpX, Y q ‰ ρpαpXq, βpY qq para funções monótonas crescentes não-lineares αpxq e βpyq.

Uma característica indesejada do coeficiente é que ρpX, Y q “ 0 não implica independência de X e Y , exceto quando X e Y possuem distribuição normal; o contrário vale sempre, ou seja, se X e Y são independentes, então por definição CovpX, Y q “ 0 e consequentemente ρpX, Y q “ 0.

Por todas essas razões, o ρ de Pearson pode ser considerado sem sentido quando se trabalha fora da classe das distribuições elípticas (como nas cópulas gaussiana ou T), já que naquela classe o coeficiente de correlação linear caracteriza corretamente a dependência entre as distribuições marginais.

Há uma distinção básica entre medidas de dependência – denotadas por δ – e concordância – denotadas por κ. Medidas de dependência quantificam o grau de relacionamento entre variáveis ao atribuir números entre 0 (independência mútua) e 1 (dependência monótona), porém não distinguem entre associação positiva ou negativa; esta distinção provém das medidas de concordância, limitadas por sua vez entre ´1 (associação negativa perfeita) e 1 (associação positiva perfeita) (Nicoloutsopoulos (2005, p.

17)).

Ambas possuem uma série de características desejáveis, resumidas naTabela 1.2

a seguir. Qualquer medida, tanto de dependência quanto de concordância, que possua tais características viabiliza análises mais aprofundadas que a mera investigação de uma relação linear entre variáveis aleatórias.

O conceito de concordância refere-se ao comportamento de valores ‘elevados’ de uma variável tenderem a estar associados a valores ‘elevados’ da outra variável. Em outros termos, sejam pxi, yiqe pxj, yjq duas observações do vetor aleatório absolutamente contínuo pX, Y q, então pxi, yiqe pxj, yjqsão concordantes se xi ă xj e yi ă yj ou xi ą xj e 8 A v.a. X possui segundo momento finito se

Tabela 1.2 – Características desejáveis das medidas de dependência e concordância

Medidas de dependência (δ) Medidas de concordância (κ)

a) δ deve estar definida para todo par pX, Y q de v.a. absolutamente contínuas;

b) 0 ď δpX, Y q ď 1; c) δpX, Y q “ δpY, Xq;

d) δ “ 0 se e somente se X e Y forem inde- pendentes;

e) δpX, Y q “ 1 se e somente se cada um de

X,Y é quase certamente uma função estri-

tamente monótona do outro;

f) se f e g forem quase certamente fun- ções estritamente monótonas definidas em ImagempXq e ImagempY q respectivamente, então δpf pXq, gpY qq “ δpX, Y q g) se tpXn, Ynqu8n“1 tal que pXn, Ynq D ÝÑ nÑ8 pX, Y q então δpXn, Ynq D ÝÑ nÑ8δpX, Y q

a) κ deve estar definida para todo par pX, Y q de v.a. absolutamente contínuas;

b) ´1 ď κpX, Y q ď 1, κpX, Xq “ 1 e

κpX, ´Xq “ ´1;

c) κpX, Y q “ κpY, Xq;

d) se X e Y forem independentes então

κpX, Y q “ 0; e) κp´X, Y q “ κpX, ´Y q “ ´κpX, Y q; f) se pX, Y q ă pX1, Y1 q então κpX, Y q ď κpX1, Y1 q; g) se tpXn, Ynqu8n“1 tal que pXn, Ynq D ÝÑ nÑ8 pX, Y q então κpXn, Ynq D ÝÑ nÑ8κpX, Y q

Fonte: Medidas de dependência – Rényi (1959 apud NICOLOUTSOPOULOS, 2005) e Medidas de

concordância –Scarsini(1984apud NICOLOUTSOPOULOS,2005)

yi ą yj; analogamente, pxi, yiqe pxj, yjq são discordantes se xi ă xj e yi ą yj ou xi ą xj e

yi ă yj. Adotando uma notação mais compacta, tem-se: pxi, yiq e pxj, yjqsão concordantes se pxi´ xjqpyi´ yjq ą0 e discordantes se pxi´ xjqpyi´ yjq ă0 (Nelsen(2007, pp. 157-158)).

O assunto da dependência estatística é vasto e constitui-se objeto de estudo de obras muito importantes na literatura de probabilidade e estatística: entre elas as obras de Mari e Kotz(2001) e Joe (2014), este último uma das referências mais importantes no estudo das cópulas.

Em seu estudo de dependência por meio de estatística não paramétrica,Schwei- zer, Wolff et al. (1981) já haviam notado que Πpu, vq é responsável pela caracterização da independência estocástica de variáveis aleatórias X e Y por meio de sua cópula C, de forma que qualquer distância em norma – denotada por Lp – entre C e Π define uma medida de dependência que possui todas as características presentes no lado esquerdo da

Tabela 1.2. A norma Lp é definida naquele artigo como uma distância entre as superfícies

z “ Cpu, vq e w “ uv. Ao todo são apresentadas três normas no artigo deSchweizer, Wolff

et al. (1981) L1 definida por σpX, Y q “ 12 ż1 0 ż1 0

|Cpu, vq ´ uv| dudv

L2 definida por γpX, Y q “ ˆ 90ż1 0 ż1 0

pCpu, vq ´ uvq2dudv

˙12

mente emBlum, Kiefer e Rosenblatt (1961) e

L8 definida por pX, Y q “ 4 sup

u,vPr0,1s

|Cpu, vq ´ uv|

Em todos os três exemplos de medida de dependência listados acima há somente dois extremos: 0 ou 1, em que o valor 0 corresponde à ausência de afastamento entre as cópulas C e Π, significando a independência entre as variáveis aleatórias X e Y e o valor 1 representa a dependência perfeita entre as variáveis. No segundo extremo porém a pergunta de interesse é se a dependência perfeita é negativa – quando X é por exemplo uma função monótona não crescente de Y – ou positiva. A especificidade sobre o sinal da dependência pode ser tratada por meio da função conforme a Definição 1.5.

Em complemento ao uso do coeficiente de correlação ρ de Pearson, trabalha-se, habitualmente, com medidas de dependência ou concordância baseadas nos postos9 das observações, que por consequência do Teorema A.1e por dependerem somente das cópulas, são invariantes às transformações estritamente crescentes das variáveis aleatórias.

Ambas as medidas τ de Kendall e ρS de Spearman, quando aplicadas no limitante superior de Fréchet-Hoeffding, resultam em 1; além disso, quando aplicadas no limitante inferior de Fréchet-Hoeffding, ambas resultam em -1. Em outros termos, dadas

X e Y variáveis aleatórias contínuas com função de cópula dada por Cpu, v|θq, tem-se

• Cpu, v|θq “ Mpu, vq “ minpu, vq ðñ τpX, Y q “ ρSpX, Y q “1

• Cpu, v|θq “ W pu, vq “ maxpu`v ´1, 0q ðñ τpX, Y q “ ρSpX, Y q “ ´1. A demonstração das relações acima pode ser encontrada em Viola (2009, pp. 71-73).

A generalização de medidas de dependência e associação para cópulas de dimensão superior ao caso bivariado torna-se rapidamente um tema de grande complexidade. Em sua investigação no espaço R3, García, González-López e Nelsen(2013) propõem um

novo índice para medir dependência positiva em distribuições trivariadas.

Nelsen (2007) define uma função de concordância entre dois vetores aleatórios que serve de base para explorar relações entre as cópulas destes vetores aleatórios. O autor estabelece, por meio do Teorema 1.8, que a função de concordância depende das distribuições dos vetores aleatórios somente através das suas cópulas.

Definição 1.5. (Nelsen (2007, p. 158)). Sejam pX1, Y1qe pX2, Y2q dois vetores aleatórios

absolutamente contínuos com distribuições conjuntas H1 e H2, respectivamente. Seja a

9

função de concordância Q dada pela diferença entre as probabilidades de concordância

e discordância de pX1, Y1q e pX2, Y2q, ou seja,

Q “ P rpX1´ X2qpY1´ Y2q ą 0s ´ P rpX1´ X2qpY1 ´ Y2q ă 0s . (1.3)

Teorema 1.8. Sejam pX1, Y1q „ H1 e pX2, Y2q „ H2 dois vetores aleatórios independentes

e absolutamente contínuos com distribuições marginais comuns F (de X1 e X2) e G (de

Y1 e Y2). Sejam C1 e C2 as cópulas de pX1, Y1q e pX2, Y2q, respectivamente e Q a função

de concordância conforme a Definição 1.5. Então QpC1, C2q “ 4

ż ż

I2

C2pu, vqdC1pu, vq ´1. (1.4)

Demonstração. Nelsen (2007, pp. 159-160).

Dado que a função de concordância quantifica a dependência entre vetores aleatórios através de suas cópulas, Nelsen (2007, p. 160) estabelece que a função Q é simétrica10, não decrescente em cada argumento e que as cópulas podem ser substituídas pelas cópulas de sobrevivência em Q11; além disso Nelsen (2007, pp. 160-161) apresenta um estudo da amplitude de dependência para todas as combinações (duas a duas) das cópulas elementares12 M “ M pu, vq “ minpu, vq, W “ W pu, vq “ maxpu ` v ´ 1; 0q e Π “ Πpu, vq “ uv, chegando aos valores da Tabela 1.3.

Tabela 1.3 – Aplicação da função de concordância nas cópulas elementares

M Π W

M 1 1{3 0

Π 1{3 0 ´1{3

W 0 ´1{3 ´1

Nota: M “M pu,vq“minpu,vq, W “W pu,vq“maxpu`v´1,0q, Π“Πpu,vq“uv

Fonte:Nelsen(2007, pp. 160-161). Elaboração própria.

Dada uma cópula qualquer C,Nelsen(2007, p. 161) prossegue com a exploração da amplitude de dependência entre ela e as demais cópulas elementares, estabelecendo então os chamados eixos de concordância, ou seja, valores máximos e mínimos a serem atingidos pela função de concordância aplicada nas combinações entre as cópulas elementares e a cópula genérica C e entre si mesma. Como QpC, Cq é uma diferença de duas probabilidades, seu valor está contido no intervalo r´1, 1s e a seguir são listados intervalos nos quais os graus de dependência estão definidos de acordo com cada combinação possível:

10

QpC1, C2q “ QpC2, C1q 11

QpC1, C2q “ QpC1, C2q

12 as cópulas elementares são formadas pela cópula produto e pelos limitantes inferior e superior de

• QpC, Mq P r0, 1s • QpC, Πq P r´1{3, 1{3s • QpC, W q P r´1, 0s.

Definição 1.6. Sejam X e Y variáveis aleatórias com segundo momento finito, ou seja,

EpX2q ă 8 e EpY2q ă 8. O coeficiente de correlação linear é definido como

ρ “ ρpX, Y q – a CovpX, Y q VarpXqaVarpY q,

onde CovpX, Y q – E trX ´ EpXqs rY ´ EpY qsu, VarpXq – E rX ´ EpXqs2

0 e

VarpY q ‰ 0. Tal coeficiente também é denotado por coeficiente de correlação de

Pearson.

Em contraste com o coeficiente de correlação linear de Pearson, o ρS de Spearman sempre existe – sendo irrelevante a existência dos segundos momentos finitos das variáveis – e, como será visto mais adiante no Teorema 1.9, depende somente da função de cópula, fato que o torna invariante às transformações estritamente crescentes.

Definição 1.7 (Nelsen (2007)). Sejam pX1, Y1q, pX2, Y2qe pX3, Y3qtrês vetores aleatórios

independentes com funções de distribuição acumuladas marginais absolutamente contínuas F e G. Então a versão populacional do ρS de Spearman é definida como

ρs“ ρspX, Y q “3 pP rpX1´ X2qpY1´ Y3q ą0s ´ P rpX1´ X2qpY1´ Y3q ă 0sq .

O coeficiente ρS de Spearman também pode ser escrito como

ρs “ ρpF pXq, GpXqq, no qual ρ é o coeficiente de correlação segundo a Definição 1.6, aplicado nas variáveis aleatórias transformadas F pXq e GpY q, ambas com distribuição

U p0, 1q por consequência do teorema da transformada integral.

Dado que ambas U “ F pXq e V “ GpY q têm distribuição Up0, 1q, resulta EpU q “ EpV q “ 12 e VarpUq “ VarpV q “ 121 .

Da Definição 1.7 segue que

ρS “ ρpF pXq, GpY qq “ ρpU, V q

EpUV q ´ EpU qEpV qa

VarpUqVarpV qEpUV q ´ 14 1 12 “12EpUV q ´ 3 “12 ˆż1 0 ż1 0 uv dCpu, vq ´ 1 4 ˙ “12 ˆż1 0 ż1 0

uv dCpu, vq ´ EpU qEpV q

“12 ˆż1 0 ż1 0 Cpu, vq dudv ´ ż1 0 u du ż1 0 v dv ˙ pApêndice Cq “12 ż1 0 ż1 0

rCpu, vq ´ uvs dudv “12 ż8 ´8 ż8 ´8 rHpx, yq ´ F pxqGpyqs dF pxqdGpyq,

em que Cpu, vq é a cópula do par uniforme bivariado pU, V q e Hpx, yq “ P pX ď x, Y ď yq conforme definido emHoeffding(1940); a última integral resulta da substituição de variáveis

u “ F pxq e v “ Gpyq.

Desta forma demonstra-se que o ρS de Spearman também é definido como uma distância entre a cópula C e Π. A interpretação geométrica é que o ρS de Spearman é proporcional ao volume entre as superfícies da cópula Cpu, vq e da cópula de independência Πpu, vq “ uv.

Teorema 1.9 (Nelsen (2007)). Sejam X e Y variáveis aleatórias absolutamente contínuas

cuja cópula é dada por C. Então a versão populacional do ρS de Spearman é dada por

ρS3QpC, Πq “ 12 E rCpU, V qs ´ 3, (1.5)

em que U e V são variáveis aleatórias com distribuição Up0, 1q.

Matematicamente, é ligeiramente mais simples calcular a expressão para o ρS de Spearman, como pode ser visto no exemplo a seguir.

Exemplo 1.7 (ρ de Spearman para a família de cópulas Farlie-Gumbel-Morgenstern).

Conforme listado na Seção D.3, a função densidade da família de cópulas FGM é dada por cpu, v|θq “ 1 ` θp2u ´ 1qp2v ´ 1q, onde o parâmetro θ P r´1, 1s e portanto

ρS “12 ¨ ż1

0

ż1

0

uvp1 ` θp1 ´ uqp1 ´ vqq dudv ´ 3

“12 ¨ ż1 0 ż1 0 uv ` θpu ´ u2qpv ´ v2q dudv ´3 “12 ¨ „ż1 0 ż1 0 uv dudv ` ż1 0 ż1 0 θpu ´ u2qpv ´ v2q dudv  ´3 “12 ¨ „ 1 4 ` θ ż1 0 ż1 0 pu ´ u2qpv ´ v2q dudv  ´3 ˆ pois ż1 0 u du “ 1 2 ˙ “12 ¨ „ 1 4 ` θ ¨ 1 36  ´3 ˆ pois ż1 0 pu ´ u2q du “ 1 6 ˙ “3 ` θ ¨ 12 36´3 “ θ 3.

Definição 1.8. Seja pX1, Y1q, . . . , pXn, Ynq uma amostra aleatória de um vetor aleatório

das observações originais, sendo Ri o posto da i-ésima observação de X e Sj o posto da

j-ésima observação de Y , com 1 ď i ď n e 1 ď j ď n.

Abaixo define-se a versão amostral do coeficiente ρS de Spearman.

Definição 1.9. Sejam pR1, S1q, . . . , pRn, Snq os postos das observações originais conforme

a Definição 1.8. A versão amostral do ρS de Spearman é definida como

p ρn“ 12 n3´ n ¨ ˜ n ÿ i“1 RiSi ¸ ´ 3pn ` 1q n ´1 , ou, alternativamente, como

p ρn“1 ´ 6 ¨ n ÿ i“1 pRi´ Siq2 npn2´1q.

Define-se a seguir a versão amostral do coeficiente τ.

Definição 1.10. Sejam pR1, S1q, . . . , pRn, Snqos postos das observações originais conforme

a Definição 1.8. A versão amostral do τ de Kendall é definida como

p τn“ 2 n2´ n ÿ 1ďiďjďn SinalpRi´ RjqSinalpSi´ Sjq.

Alternativamente, pode-se definir τpn

#C ´ #D `n

2

˘ , onde #C é o número de

pares concordantes e #D é o número de pares discordantes.

A intuição por trás do τ de Kendall é que se Y tende a aumentar junto com

X, a probabilidade de concordância será alta em relação à probabilidade de discordância;

analogamente, se Y tende a diminuir à medida que X aumenta, a probabilidade de concordância será baixa em relação à probabilidade de discordância. Como será visto a seguir, o τ de Kendall faz extenso uso da Definição 1.5.

Definição 1.11. Sejam pX1, Y1qe pX2, Y2qdois vetores aleatórios absolutamente contínuos,

independentes e identicamente distribuídos, cada um com função de distribuição conjunta dada por H e marginais Xi „ F e Yi „ G, i “ 1, 2. Então a versão populacional do τ de

Kendall é definida como

τ “ P rpX1´ X2qpY1´ Y2q ě0s ´ P rpX1´ X2qpY1´ Y2q ď 0s (1.6)

Alternativamente, pode-se definir τ como τ “ E tSinal rpX1 ´ X2qpY1´ Y2qsu

onde Sinalpxq denota o sinal de x, dado por Sinalpxq “ $ ’ & ’ % ´1, se x ă 0 0, se x “ 0 1, se x ą 0

Nota-se que caso os pares pX1, Y1q e pX2, Y2q sejam concordantes, P ppX1 ´

X2qpY1´Y2q ě0q “ 1 e, analogamente, caso os pares sejam discordantes, P ppX1´X2qpY

Y2q ď0q “ 1. A partir da Definição 1.11 e da constatação anterior, pode-se desenvolver o

coeficiente τ de Kendall da seguinte maneira (Nicoloutsopoulos (2005, p. 18))

τ “ P rpX1´ X2qpY1´ Y2q ě0s ´ P rpX1´ X2qpY1´ Y2q ď 0s

“ P rpX1´ X2qpY1´ Y2q ě0s ´ t1 ´ P rpX1´ X2qpY1´ Y2q ą 0su

2 ¨ P rpX1´ X2qpY1 ´ Y2q ě 0s ´ 1

2 ¨ tP rpX1 ě X2qpY1 ě Y2qs ` P rpX1 ď X2qpY1 ď Y2qsu ´1

2 ¨ tP rpX1 ě X2qpY1 ě Y2qs `1 ´ P pX1 ď X2q ´ P pY2 ď Y1q ` P rpX2 ď X1qpY2 ď Y1qsu ´1 “2 ¨ tP rpX1 ě X2qpY1 ě Y2qs `1 ´ 0, 5 ´ 0, 5 ` P rpX2 ď X1qpY2 ď Y1qsu ´1 “2 ¨ t2 ¨ P rpX1 ě X2qpY1 ě Y2qsu ´1 “4 ¨ P rpX1 ě X2qpY1 ě Y2qs ´1 “4 ¨ ż8 ´8 ż8 ´8 P pX1 ď x, Y1 ď yq dHpx, yq ´1 “4 ¨ ż1 0 ż1 0 Cpu, vq dCpu, vq ´1,

no qual a última equação segue da troca de variáveis u “ F pxq, v “ Gpyq e da relação

Hpx, yq “ CpF pxq, Gpyqq. Tal resultado também pode ser encontrado em Nelsen (2007,

pp. 159-160).

Teorema 1.10. Sejam X e Y variáveis aleatórias absolutamente contínuas cuja cópula é

dada por C. Então a versão populacional do τ de Kendall é dada, alternativamente, por τ “ QpC, Cq “4 E rCpU, V qs ´ 1, (1.7) em que U e V são variáveis aleatórias com distribuição Up0, 1q.

Matematicamente é trabalhoso encontrar as expressões fechadas para o coefi- ciente τ de Kendall devido à complexidade tanto das funções de cópula quanto de suas densidades.

Exemplo 1.8 (τ de Kendall para a família de cópulas Farlie-Gumbel-Morgenstern).

Conforme listado na Seção D.3, a função densidade da família de cópulas FGM é dada por cpu, v|θq “ 1 ` θp2u ´ 1qp2v ´ 1q, e portanto dCpu, v|θq “ r1 ` θp2u ´ 1qp2v ´ 1qs dudv, cujo parâmetro θ P r´1, 1s. Por fim, a expressão matemática para o coeficiente τ de Kendall é

dada por τ “4 ¨ ż1 0 ż1 0

ruvp1 ` θp1 ´ uqp1 ´ vqsr1 ` θp2u ´ 1qp2v ´ 1qs dudv ´ 1,

de tedioso desenvolvimento, cujo resultado segundo Nelsen (2007, p. 164) é dado por τ “ 2

9θ.

Exemplo 1.9 (AplicaçãoDesigualdade de Renda). NaSeção 4.2 estuda-se a desigualdade

de renda entre os países, quando comparados com base no índice de Gini e o percentual de renda concentrada no 1% mais rico, em 2013. Para estas variáveis tem-se os seguintes valores para os coeficientes de dependência: ρ “ 0.8014, ρS0.66641 e τ “ 0.495. Percebe-

se por esses valores que há uma associação positiva forte entre desigualdade de renda (medida pelo índice de gini) e o percentual da renda nacional concentrada no 1% mais rico em relação aos coeficientes ρ de Pearson e ρS de Spearman.

Exemplo 1.10 (Aplicação Quebras de barragens). A associação entre as variáveis Dmax

e Damfactor“ Hf “ H ˆ

VF

VT

ˆ VF pode ser caracterizada através dos coeficientes de

dependência: ρ “ 0.92187, ρS0.7078 e τ “ 0.52. Os valores indicam forte associação

positiva entre as variáveis.

Exemplo 1.11 (Aplicação Mapa da Desigualdade). A associação entre as variáveis

idade e pct pode ser caracterizada através dos coeficientes de dependência: ρ “ ´0.96799, ρS “ ´0.97048 e τ “ ´0.85501, indicando associação negativa muito forte, ou seja,

morre-se mais tarde em bairros nos quais o percentual de pretos/pardos é menor.

É natural chegar à conclusão de que os coeficientes τ de Kendall e ρS de Spearman devem estar de alguma forma relacionados, já que ambos dependem somente da cópula C e podem ser escritos em função do parâmetro de associação θ. Esta relação respeita a desigualdade conforme o teorema a seguir.

Teorema 1.11. Sejam X e Y variáveis aleatórias absolutamente contínuas cuja cópula é

dada por C. A relação entre o τ de Kendall e o ρS de Spearman é dada através da relação ´1 ď 3τ ´ 2ρS ď1.

Demonstração. Nelsen (2007, pp. 195)

Exemplo 1.12 (Relação entre τ de Kendall e ρS de Spearman para a família de cópulas

Farlie-Gumbel-Morgenstern). Para a família de cópulas Farlie-Gumbel-Morgenstern a

relação entre os coeficientes τ de Kendall e ρS de Spearman é dada por 3τ “ 2ρS, já que

τ “ 2

9θ e ρS

θ

Documentos relacionados