• Nenhum resultado encontrado

Neste cap´ıtulo foi detalhado como ´e resolvido um modelo DSGE desde a formula¸c˜ao como um problema de maximiza¸c˜ao da utilidade esperada at´e a estima¸c˜ao dos parˆametros en- volvidos. Notemos que em todo o processo de resolu¸c˜ao foi suposto normalidade nos choques. Nos cap´ıtulos seguintes, exploraremos outras alternativas para a distribui¸c˜ao dos choques; por exemplo, Chib e Ramamurthy (2014) consideram erros t-Student inde- pendentes e Fernandez-Villaverde et al. (2015) analisam modelos DSGE com estrutura de volatilidade estoc´astica independente.

Nos cap´ıtulos subsequentes pretendemos generalizar estas abordagens. No cap´ıtulo 3, estudamos modelos DSGE log-linearizados escritos em espa¸co de estado com estru- turas t-Student multivariadas e correlacionadas e introduzimos a distribui¸c˜ao t-Student generalizada. E, no cap´ıtulo 4, estendemos estes modelos para introduzir volatilidade estoc´astica dependente entre os choques.

Cap´ıtulo 3

DSGE com variˆancia n˜ao

estruturada

No Cap´ıtulo 2 foi discutido como todo modelo DSGE, quando ´e formulado como um problema de maximiza¸c˜ao da utilidade esperada, pode ser escrito como equa¸c˜oes de espa¸co de estados. Para isso, ´e necess´ario encontrar as equa¸c˜oes de equil´ıbrio, estado est´avel, log-lineariza¸c˜ao e resolu¸c˜ao das esperan¸cas racionais. Ap´os obter as equa¸c˜oes de espa¸co de estados, pode-se aplicar o filtro de Kalman e aproximar a verossimilhan¸ca condicionada aos parˆametros para finalmente estimar os parˆametros.

Em todo esse processo geralmente sup˜oe-se normalidade entre os choques envolvi- dos, e, portanto, o filtro de Kalman pode ser aplicado quando escreve-se o sistema como espa¸co de estado. No entanto, uma pergunta natural surge: por que n˜ao supor que os cho- ques seguem alguma outra distribui¸c˜ao, como sugerem alguns artigos que estudam esta quest˜ao, Chib e Ramamurthy (2014) e Curdia et al. (2014), que consideram distribui¸c˜oes t-Student independentes para os choques?

O prop´osito deste cap´ıtulo ´e estender o modelo, considerando uma distribui¸c˜ao t- Student multivariada com correla¸c˜ao entre os choques e, tamb´em, a distribui¸c˜ao t-Student generalizada entre os choques.

3.1

Modelo DSGE com distribui¸c˜ao t-Student

No cap´ıtulo 2 foi mostrado que todo modelo DSGE pode ser representado em espa¸co de estado (2.44)-(2.45) como:

Yt = a + HSt, t ≤ n, (3.1)

St+1 = GSt+ F vt+1, t ≤ n, (3.2)

onde Yt ´e o vetor de observa¸c˜oes e St ´e o vetor de estado definido como St= (ˆyt−1, ˆkt, zt), onde ˆkt representa as vari´aveis end´ogenas, zt as vari´aveis ex´ogenas e ˆyt as vari´aveis de controle. As vari´aveis ex´ogenas zt: q×1 s´ao definidas como um processo VAR estacion´ario com matriz diagonal N :

zt= N zt−1+ vt.

Muitos autores consideram vt ∼ N (0, Σ) uma distribui¸c˜ao normal multivariada com matriz de dispers˜ao diagonal Σ = diag(σ2

1, . . . , σq2). O artigo de Chib e Ramamurthy (2014) assume uma distribui¸c˜ao t-Student para vt, tal que Σ, uma matriz diagonal, cada elemento vjt de vt est´a definido como uma mistura de normais introduzindo as vari´aveis λjt, de forma que:

vjt = λ −1/2

jt j, λjt ∼ Ga(νj/2, νj/2), j ≤ q, t ≤ n,

onde j ∼ N (0, σ2j). Quando integramos λjt obtemos a distribui¸c˜ao t-Student, dado que Σ ´e diagonal e os componentes s˜ao n˜ao correlacionados. Note que, dadas as vari´aveis de mistura, λjt; zjt|zjt−1, λjt ´e gaussiano.

3.1.1

Modelo t-Student multivariado

Em algumas aplica¸c˜oes, a matriz de covariˆancias diagonal nos choques n˜ao ´e suficiente para explicar o comportamento das vari´aveis j´a que a dependˆencia entre choques n˜ao est´a sendo capturada. Portanto, nossa abordagem consiste em usar uma distribui¸c˜ao t-Student para vt, assumindo Σ n˜ao diagonal e considerando a mistura normal-gama (Bernardo e Smith, 1994).

Note que num contexto bayesiano ´e preciso especificar uma distribui¸c˜ao a priori para Σ. Nesta tese usaremos a decomposi¸c˜ao proposta por Barnard et al. (2000), considerando a matriz de covariˆancia como:

Σ = diag(S) R diag(S),

onde R ´e a matriz de correla¸c˜ao e diag(S) representa uma matriz diagonal cujos elementos s˜ao o vetor de desvios padr˜ao de Σ. ´E razo´avel considerar uma priori independente para S e R, isto ´e:

p(S, R) = p(S)p(R).

Esta decomposi¸c˜ao nos permite tratar o desvio padr˜ao e a correla¸c˜ao separadamente, ao inv´es de usar diretamente uma priori para a matriz de covariˆancias Σ. A priori que ser´a usada para R tem distribui¸c˜ao uniforme, isto ´e, p(R) ∝ 1. Note que esta priori conjunta n˜ao implica necessariamente em uma priori uniforme marginal para cada componente de R, devido `a restri¸c˜ao de que R tem que ser positiva definida. Para o vetor de desvios padr˜ao S = (σ1, . . . , σq)0 atribu´ımos uma priori Gama Inversa para cada σj, j ≤ q dada por:

σj ∼ GI(0, 001 ; 0, 001), j = 1, . . . , q.

Se consideramos os graus de liberdade como desconhecidos, daremos uma priori indepen- dente para ν proposta por Fonseca et al. (2008):

p(ν) ∝  ν ν + 3 1/2( ϑ0(ν/2) − ϑ0((ν + 1)/2) − 2(ν + 3) ν(ν + 1) )1/2 , (3.3)

onde ϑ(a) = d logΓ(a)/da e ϑ0(a) = d{ϑ(a)}/da s˜ao as fun¸c˜oes digama e trigama, respectivamente.

3.1.2

Modelo t-Student generalizado

Ao inv´es de usar uma ´unica vari´avel misturadora no modelo, nos propomos a usar mais de uma vari´avel misturadora, uma para cada elemento da diagonal na matriz de covariˆancia Σ. Considere a mistura para vt como:

vt ∼ N (0, Λ 1/2 t ΣΛ 1/2 t ), Λt = diag(λ−11t , . . . , λ −1 qt ), (3.4) λjt ∼ Ga(νj/2, νj/2), j ≤ q, t ≤ n.

Notemos que Λ1/2t ΣΛ1/2t produz a mesma matriz de correla¸c˜ao que Σ, mas a mistura de vari´aveis por componente pode ser ´util para detectar quebras estruturais na equa¸c˜ao de estado. Al´em disso, note que, quando Σ ´e diagonal, o modelo geral ´e reduzido a distribui¸c˜oes t-Student independentes univariadas com diferentes graus de liberdade.

A seguir formulamos um lema que diz como esta transforma¸c˜ao preserva a correla¸c˜ao entre as vari´aveis.

Lema: Seja X ∼ N (0, Σ) e Y = Λ1/2X com Λ1/2 = diag(λ−1/21 , . . . , λ−1/2q ). Portanto, a matriz de correla¸c˜ao de Y ´e a mesma que a matriz de correla¸c˜ao de X.

Prova: ´E s´o notar que:

var(Y ) = Λ1/2 var(X) Λ1/2= Λ1/2diag(S) R diag(S)Λ1/2 = diag(S) R diag(S)

onde S∗ = (λ−1/21 σ1, . . . , λ−1/2q σq), o que implica que a matriz de correla¸c˜ao R coincide para ambas vari´aveis.

Documentos relacionados