• Nenhum resultado encontrado

FRANCINILTON ARRUDA DA SILVA

N/A
N/A
Protected

Academic year: 2021

Share "FRANCINILTON ARRUDA DA SILVA"

Copied!
152
0
0

Texto

(1)

PROGRAMA DE PÓS-GRADUAÇÃO EM MODELAGEM E MÉTODOS QUANTITATIVOS

FRANCINILTON ARRUDA DA SILVA

MODELOS DE SUPERFÍCIE DE RESPOSTA PARA DADOS DE CONTAGEM COM MEDIDAS REPETIDAS

FORTALEZA 2018

(2)

MODELOS DE SUPERFÍCIE DE RESPOSTA PARA DADOS DE CONTAGEM COM MEDIDAS REPETIDAS

Dissertação apresentada ao Programa de Pós-Graduação em Modelagem e Métodos Quantitativos do Departamento de Estatís-tica e MatemáEstatís-tica Aplicada da Universidade Federal do Ceará como parte dos requisitos necessários para a obtenção do título de mes-tre em Modelagem e Métodos Quantitativos. Área de concentração: Modelagem e Méto-dos Quantitativos.

Orientador(a): Profa. Dra. Silvia Maria de Freitas

FORTALEZA 2018

(3)

S58m Silva, Francinilton Arruda da.

Modelos de superfície de resposta para dados de contagem com medidas repetidas / Francinilton Arruda da Silva. – 2018.

151 f. : il. color.

Dissertação (mestrado) – Universidade Federal do Ceará, Centro de Ciências, Programa de Pós-Graduação em Modelagem e Métodos Quantitativos, Fortaleza, 2018.

Orientação: Profa. Dra. Silvia Maria de Freitas.

1. Equações de estimação generalizadas. 2. Distribuição Poisson. 3. Modelos lineares generalizados. 4. Bootstrap. 5. Comparações de métodos. I. Título.

(4)

MODELOS DE SUPERFÍCIE DE RESPOSTA PARA DADOS DE CONTAGEM COM MEDIDAS REPETIDAS

Dissertação apresentada ao Programa de Pós-Graduação em Modelagem e Métodos Quan-titativos do Departamento de Estatística e Matemática Aplicada da Universidade Fede-ral do Ceará como parte dos requisitos ne-cessários para a obtenção do título de mes-tre em Modelagem e Métodos Quantitativos. Área de concentração: Modelagem e Métodos Quantitativos.

Aprovado em: 14 / 09 / 2018.

BANCA EXAMINADORA

Profa. Dra. Silvia Maria de Freitas (Orientadora)

Universidade Federal do Ceará (UFC)

Prof. Dr. Juvêncio Santos Nobre (Examinador Interno) Universidade Federal do Ceará (UFC)

Prof. Dr. Idemauro Antonio Rodrigues de Lara (Examinador Externo) Escola Superior de Agricultura Luiz de Queiroz - ESALQ/USP

(5)

A Deus.

(6)

todo este percurso do mestrado, em especial:

A Deus, em nome do seu Filho Jesus Cristo, pois sem Ele não teria conseguido superar muitos problemas que surgiram, bem como concluir este trabalho.

À minha orientadora, Silvia Maria de Freitas, pela orientação e apoio dado no desenvolvimento deste trabalho.

Ao professor Juvêncio Santos Nobre pela sua colaboração na pesquisa. Aos meus pais José e Francisca pelo cuidado, educação e carinho que sempre me deram.

À minha esposa Cleine, pela compreensão, paciência e por está ao meu lado principalmente nos momentos difíceis.

Ao meu lho Samuel, por compreender minhas limitações durante todo o pe-ríodo do mestrado.

Ao professor Luiz Drude de Lacerda, Diretor Cientíco da Funcap, pelo grande apoio dado no âmbito do meu trabalho.

Aos meus colegas de mestrado pelos momentos de superação conjunta nas dis-ciplinas, em que tive a oportunidade de aprender bastante.

(7)

A Metodologia de Superfície de Resposta (MSR) tem por objetivo a determinação de níveis de fatores (quantitativos) que otimizem uma resposta quantitativa de interesse, para assim obter as coordenadas do ponto estacionário (mínimo ou máximo) do modelo, identicando as condições ótimas do mesmo. Os modelos são ajustados, geralmente, por meio de um modelo linear de segunda ordem, baseado em uma resposta contínua (com distribuição Normal), sendo todo o procedimento de estimação baseado no modelo clássico de regressão. Na ausência dessa premissa, o que ocorre quando a resposta for caracte-rizada por dados de contagem, faz-se uso dos métodos de transformação na resposta, o que pode acarretar problemas na precisão da estimativa pontual do ponto estacionário. Em geral, dados de contagem são modelados usando-se a distribuição de Poisson associ-ada à modelos de regressão, caso particular dos Modelos Lineares Generalizados (MLGs). Além disso, existem situações em que os dados são tomados ao longo do tempo, apresen-tando uma estrutura longitudinal. Neste caso, é considerada a existência de correlação na mesma unidade experimental ao longo do tempo e, em 1986, Liang e Zeger propuseram as Equações de Estimação Generalizadas (EEGs), como extensão dos MLGs, para analisar dados longitudinais. A proposta deste trabalho descreve a MSR para dados de contagem longitudinais, por meio das EEGs, estudando suas propriedades, estimação e inferências. É realizado um estudo da precisão do ponto estacionário por meio da estimação pontual e intervalar deste, utilizando-se os métodos: inversa da função de ligação, método delta e o método do bootstrap residual, comparando o impacto dessas abordagens com à da resposta com distribuição Normal. Para tanto foram utilizados estudos de conjuntos de dados simulados.

Palavras-chave: Bootstrap. Comparações de Métodos. Distribuição Poisson. Equações de Estimação Generalizadas. Modelos Lineares Generalizados.

(8)

The Response Surface Methodology (RSM) aims to determine the levels of factors (quanti-tative) that optimize a quantitative response of interest, in order to obtain the coordinates of the stationary point (minimum or maximum) of the model, identifying the optimum conditions of the same. The models are usually adjusted by means of a second-order linear model, based on a continuous response (with Normal distribution), and the entire estimation procedure is based on the classical regression model. In the absence of this premise, which occurs when the response is characterized by counting data, it is used the transformation methods in the response, which can cause problems in the accuracy of the point estimate of the stationary point. In general, counting data are modeled using the Poisson distribution associated with regression models, a particular case of Generalized Linear Models (GLMs). In addition, there are situations in which data are taken over time, presenting a longitudinal structure. In this case, it is considered the existence of correlation in the same experimental unit over time and, in 1986, Liang and Zeger propo-sed Generalized Estimation Equations (GEEs), as an extension of the GLMs, to analyze longitudinal data. The proposal of this work describes the RSM for longitudinal counting data, through the GEEs, studying their properties, estimation and inferences. A study of the stationary point precision is carried out by means of the point and interval estima-tion of the staestima-tionary point, using the following methods: inverse binding funcestima-tion, delta method and residual bootstrap method, comparing the impact of these approaches with that of the distribution response Normal. For that, we used simulated data sets.

Keywords: Bootstrap. Generalized Estimating Equations. Generalized Linear Models. Method Comparisons. Poisson distribution.

(9)

mento (ˆy) em função da temperatura (x1) e pressão (x2). . . 20

Figura 2  Delineamento composto central para k = 2 e k = 3. . . 23 Figura 3  Forma canonica do modelo de segunda ordem. . . 26 Figura 4  Grácos Boxplot por tempo (Y1, Y2 e Y3) do delineamento composto

central de 12 pontos. . . 49 Figura 5  Superfícies de resposta na escala do preditor linear ˆη referentes aos

mo-delos de regressão Poisson e Normal, ajustados por meio do estimador naive. . . 52 Figura 6  Superfícies de resposta na escala do preditor linear ˆη referentes aos

mo-delos de regressão Poisson e Normal, ajustados por meio do estimador robusto. . . 54 Figura 7  Grácos de probabilidade meio-normal com envelopes simulados dos

mo-delos de regressão Poisson e Normal com base no estimador naive. . . . 55 Figura 8  Grácos de probabilidade meio-normal com envelopes simulados dos

mo-delos de regressão Poisson e Normal com base no estimador robusto. . . . 56 Figura 9  Gráco dos pers individuais (a) e perl médio (b) referentes ao

deline-amento composto central de 12 pontos simulados. . . 58 Figura 10 Grácos de probabilidade meio-Normal com envelopes simulados do

mo-delo de regressão Poisson e Normal com estruturas de correlação: Inde-pendente, AR-1 e Uniforme com base no estimador naive. . . 60 Figura 11 Superfícies de resposta na escala do preditor linear ˆη referentes aos

mo-delos de regressão Poisson e Normal, ajustados pelo estimador naive e utilizando a estrutura de correlação AR-1. . . 62 Figura 12 Superfícies de resposta na escala do preditor linear ˆη referentes aos

mo-delos de regressão Poisson e Normal, ajustados pelo estimador robusto e utilizando a estrutura de correlação AR-1. . . 62 Figura 13 Grácos de probabilidade meio-Normal com envelopes simulados do

mo-delo de regressão Poisson e Normal com estruturas de correlação: Inde-pendente, AR-1 e Uniforme com base no estimador robusto. . . 63 Figura 14 Resíduo padronizado e Distância de Cook dos modelos de regressão

Pois-son e Normal com estrutura de correlação AR-1 e utilizando o estimador naive. . . 64 Figura 15 Resíduo padronizado e Distância de Cook dos modelos de regressão

Pois-son e Normal com estrutura de correlação AR-1 e utilizando o estimador robusto. . . 64

(10)

central de 18 pontos. . . 68 Figura 17 Grácos de probabilidade meio-normal com envelopes simulados dos

mo-delos de regressão: Poisson e Normal com base no estimador naive. . . . 72 Figura 18 Grácos de probabilidade meio-normal com envelopes simulados dos

mo-delos de regressão: Poisson e Normal com base no estimador robusto. . . 72 Figura 19 Superfícies de resposta na escala do preditor linear ˆη referentes aos

mo-delos de regressão Poisson e Normal, ajustados com base no estimador naive no Tempo 3. . . 74 Figura 20 Superfícies de resposta na escala do preditor linear ˆη referentes aos

mo-delos de regressão Poisson e Normal, ajustados por meio do estimador robusto no Tempo 3. . . 75 Figura 21 Gráco dos pers individuais (a) e perl médio (b) referentes ao

deline-amento composto central de 18 pontos simulados. . . 76 Figura 22 Grácos de probabilidade meio-normal com envelopes simulados dos

mo-delos de regressão Poisson e Normal com estruturas de correlação: (a,b) Independente, (c,d) AR-1 e (e,f) Uniforme com base no estimador naive. 79 Figura 23 Grácos de probabilidade meio-normal com envelopes simulados dos

mo-delos de regressão Poisson e Normal com estruturas de correlação: (a,b) Independente, (c,d) AR-1 e (e,f) Uniforme com base no estimador robusto. 82 Figura 24 Resíduo padronizado e Distância de Cook dos modelos de regressão

Pois-son e Normal com estrutura de correlação AR-1 e utilizando o estimador naive. . . 83 Figura 25 Resíduo padronizado e Distância de Cook dos modelos de regressão

Pois-son e Normal com estrutura de correlação AR-1 e utilizando o estimador robusto. . . 83 Figura 26 Superfícies de resposta na escala do preditor linear ˆη referentes aos

mo-delos de regressão Poisson e Normal, ajustados por meio dos estimadores naive e robusto e utilizando a estrutura de correlação AR-1. . . 85

(11)

Tabela 2  Delineamento composto central de 12 pontos com dados de contagem simulados em três momentos: Y1, Y2 e Y3. . . 47

Tabela 3  Análise descritiva por tempo (Y1, Y2 e Y3) do delineamento composto

central de 12 pontos. . . 48 Tabela 4  Estimativa dos parâmetros dos modelos de regressão Poisson e Normal

por tempo por meio do estimador naive. . . 51 Tabela 5  Estimativa dos parâmetros dos modelos de regressão Poisson e Normal

por tempo por meio do estimador robusto. . . 53 Tabela 6  Estimativa da resposta (ˆµs) no ponto estacionário e variância estimada

(método delta), para os modelos Poisson e Normal, em cada tempo. . . . 57 Tabela 7  Estimativa dos parâmetros dos modelos de regressão Poisson e Normal,

na estrutura longitudinal utilizando o estimador naive. . . 59 Tabela 8  Estimativa dos parâmetros dos modelos de regressão Poisson e Normal,

na estrutura longitudinal utilizando o estimador robusto. . . 61 Tabela 9  Estimativa da resposta (ˆµs) no ponto estacionário e variância estimada

(método delta), para os modelos Poisson e Normal, na estrutura longitu-dinal. . . 65 Tabela 10 Intervalos de Conança de (0,95) para µscom base nos métodos Delta de

Primeira Ordem (DPO), Inversa da Função de Ligação (IFL) e Bootstrap Residual (BR) utilizando a matriz de correlação de trabalho AR-1. . . 66 Tabela 11 Número de defeitos em wafers em um processo de fabricação de

semicon-dutores, medido em três momentos. . . 67 Tabela 12 Análise descritiva por tempo (Y1, Y2 e Y3) do delineamento composto

central de 18 pontos. . . 68 Tabela 13 Estimativa dos parâmetros dos modelos de regressão Poisson e Normal

por tempo por meio do estimador naive. . . 70 Tabela 14 Estimativa dos parâmetros dos modelos de regressão Poisson e Normal

por tempo por meio do estimador robusto. . . 71 Tabela 15 Estimativa da resposta (ˆµs) no ponto estacionário e variância estimada

(método delta), para os modelos Poisson e Normal, em cada tempo. . . . 73 Tabela 16 Estimativa dos parâmetros do modelo de regressão Poisson (lnµ = η), na

estrutura longitudinal utilizando o estimador naive. . . 77 Tabela 17 Estimativa dos parâmetros do modelo de regressão Normal (√µ = η), na

(12)

estrutura longitudinal utilizando o estimador robusto. . . 80 Tabela 19 Estimativa dos parâmetros do modelo de regressão Normal (√µ = η), na

estrutura longitudinal utilizando o estimador robusto. . . 81 Tabela 20 Estimativa da resposta (ˆµs) no ponto estacionário e variância estimada

(método delta), para os modelos Poisson e Normal, na estrutura longitu-dinal. . . 84 Tabela 21 Intervalos de Conança de (0,95) para µscom base nos métodos Delta de

Primeira Ordem (DPO), Inversa da Função de Ligação (IFL) e Bootstrap Residual (BR) utilizando a matriz de correlação de trabalho AR-1. . . 86

(13)

BR Bootstrap Residual

DCC Delineamento Composto Central DPO Delta de Primeira Ordem

EEGs Equações de Estimação Generalizadas IFL Inversa da Função de Ligação

MLGs Modelos Lineares Generalizados

MSR Metodologia de Superfície de Resposta

(14)

1.1 Contextualização . . . 15

1.2 Justicativa . . . 16

1.3 Objetivos . . . 17

1.4 Procedimentos Metodológicos . . . 17

1.5 Estrutura do trabalho . . . 17

2 METODOLOGIA DE SUPERFÍCIE DE RESPOSTA . . . 19

2.1 Denição . . . 19

2.2 Delineamentos experimentais para ajuste dos modelos . . . 21

2.3 Método da Inclinação Ascendente . . . 23

2.4 Otimização do modelo de segunda ordem . . . 24

3 MODELOS LINEARES GENERALIZADOS PARA ANÁLISE DE DADOS LONGITUDINAIS . . . 27

3.1 Denição . . . 28

3.2 Equações de Estimação Independentes (EEIs) . . . 29

3.3 Equações de Estimação Generalizadas (EEGs) . . . 30

3.3.1 Estimação de β e φ . . . 32

3.4 Estruturas de correlação . . . 33

3.5 Critério para seleção da estrutura de correlação de trabalho . . 34

3.6 Métodos de diagnóstico . . . 35

4 MODELO DE SUPERFÍCIE DE RESPOSTA PARA DADOS DE CONTAGEM LONGITUDINAIS . . . 38

4.1 Modelo Normal . . . 38

4.2 Modelo Poisson . . . 39

4.2.1 Estimação de β . . . 40

4.3 Ajuste da superfície de resposta - Modelo de Segunda Ordem . 41 4.4 Estudo da Variância de ˆµs . . . 42

4.4.1 Variância do Preditor Linear . . . 42

4.4.2 Variância da Média . . . 43

4.5 Intervalos de conança para ˆµs . . . 44

4.5.1 Intervalo de conança baseado no método delta de 1a ordem . 44 4.5.2 Intervalo de conança baseado no método da inversa da função de ligação . . . 44

4.5.3 Intervalo de conança percentil baseado no bootstrap residual . 44 5 ANÁLISE DOS CONJUNTOS DE DADOS SIMULADOS . . . 46

(15)

5.1.1 Análise por tempo . . . 48

5.1.2 Análise Longitudinal . . . 58

5.2 Modelo com Três Variáveis Regressoras . . . 67

5.2.1 Análise por tempo . . . 68

5.2.2 Análise Longitudinal . . . 76

6 CONCLUSÕES . . . 87

REFERÊNCIAS . . . 89

(16)

Neste capítulo são apresentadas a contextualização, a justicativa, bem como os objetivos, metodologia e a estrutura do trabalho.

1.1 Contextualização

A Metodologia de Superfície de Resposta (MSR) tem como objetivo principal a detecção das condições ótimas de funcionamento de um determinado processo, em que tais condições são identicadas por meio de um estudo da relação de uma variável resposta em função de outras variáveis, chamadas variáveis regressoras (ou fatores). Tornou-se um procedimento padrão de grande utilidade na área industrial, na Física, na Química, na Biologia, dentre outras, para o desenvolvimento, otimização de processos, concepção e desenvolvimento de produtos (JOHNSON; MONTGOMERY, 2009).

O procedimento consiste em identicar os níveis dos fatores (quantitativos) que otimizam uma resposta (contínua), conhecida como ponto estacionário ou ponto ótimo, que é usualmente especicado por meio de um modelo de regressão polinomial de segunda ordem (KHURI; MUKHOPADHYAY, 2010). Para respostas com distribuição Normal, isto é, cujos erros são assumidos independentes e normalmente distribuídos, com média zero e variância constante, a análise é feita na forma tradicional dos modelos lineares clássicos (MONTGOMERY; RUNGER, 2003).

Nem sempre o modelo clássico de regressão, cujas principais premissas são: Normalidade, Linearidade, Homoscedasticidade e Independência, pode ser utilizado. Tal situação acontece quando se tem dados de contagem. Tradicionalmente, tal problema pode ser contornado com o uso de transformação na resposta, porém isso pode acarre-tar problemas na precisão da estimativa do ponto estacionário. Uma alternativa mais indicada seria o uso dos Modelos Lineares Generalizados (MLGs) com resposta Poisson (ZAN, 2008; MUDA, 2009), por exemplo.

Os MLGs foram propostos por Nelder e Wedderburn (1972) e tratam-se de uma classe de modelos que expande o leque de opções para a distribuição da variável resposta. A estrutura formal dessa classe considera cada observação da variável resposta como sendo independente uma da outra e pertencente à família exponencial linear de distribuições. Distribuições como: Normal, Normal inversa, Poisson, Binomial, Binomial Negativa e Gama pertencem à família exponencial linear. Isso permite que dados de na-tureza de contagem possam ser analisados na sua escala de medida original, com o ajuste do modelo Poisson ou Binomial Negativa.

(17)

Todavia, existem situações em que no conjunto de dados em estudo, as unida-des experimentais aparecem com múltiplas observações, ou seja, como medidas repetidas. Na maioria dos casos estas observações são tomadas ao longo do tempo, possuindo uma estrutura de dados longitudinais, na qual normalmente é considerada que as observações na mesma unidade experimental estejam dependentes (LITTELL et al., 2000). Para isso é necessário o uso de uma metodologia de análise estatística que considere e modele essa estrutura de dependência. Liang e Zeger (1986) propuseram uma extensão dos MLGs, com o objetivo de analisar dados longitudinais. Eles introduziram uma classe de equações de estimação que fornecem estimativas consistentes dos parâmetros de regressão do mo-delo em estudo. Essa classe é chamada de Equações de Estimação Generalizadas (EEGs). Nessa pesquisa foi realizado um estudo comparativo entre o modelo de regres-são linear clássico com transformação na variável resposta e o modelo de regresregres-são Poisson, por meio da análise de dois conjuntos de dados simulados. O estudo comparativo entre os modelos foi feito com base na precisão do ponto estacionário, avaliada pelos métodos da inversa da função de ligação, método delta e o método do bootstrap residual.

O diferencial no ajuste da superfície de resposta proposto nesse trabalho é que o mesmo não está limitado ao ajuste tradicional, o qual utiliza apenas resposta Normal e não aborda medidas repetidas. Nesse trabalho a superfície de resposta foi ajustada sob o enfoque dos MLG's para medidas repetidas, com resposta Poisson, e ainda leva em consideração a correlação intra-unidades experimentais medidas no tempo.

1.2 Justicativa

Os modelos lineares normais são utilizados na tentativa de descrever a maio-ria dos fenômenos aleatórios, porém, na prática nem sempre observam-se dados em que a variável de interesse respeita as pressuposições do modelo de regressão clássico, sendo uma delas a normalidade da variável resposta (PAULA, 2013).

Uma forma de contornar o problema da não normalidade da variável resposta, a m de se poder utilizar o modelo de regressão clássico, seria a aplicação de algum tipo de transformação na resposta. Porém, uma desvantagem ao se utilizar a transformação, é a diculdade na interpretação dos dados em sua escala original, tendo em vista que a análise passa a ser realizada em relação a uma nova variável que não possui a mesma estrutura funcional da variável original. Outra desvantagem é a questão da estimativa da média em relação ao ponto estacionário, que pode ser sub/superestimada em virtude da não utilização de um modelo mais apropriado ao conjunto de dados.

(18)

tureza, além da sua importância acadêmica e prática, na ótica da MSR.

Acadêmica pelo fato de, até o presente momento, não ter sido encontrado na literatura da área, trabalhos que façam estudos comparativos das abordagens clássica ver-sus MLGs sobre a precisão da estimativa da média da resposta no ponto estacionário da superfície de resposta considerando dados longitudinais. Prática por ser uma alternativa necessária aos métodos clássicos (via transformação da resposta) usualmente utilizados.

1.3 Objetivos

De forma geral, o objetivo do trabalho foi realizar um estudo comparativo do método clássico de superfície de resposta, utilizando transformação na resposta (√µ = η), e do MLG Poisson (lnµ = η) para a estimação da precisão no ponto estacionário, consi-derando dados de contagem longitudinal.

De maneira especíca os objetivos foram:

i) Estudar a MSR tradicional e via MLGs considerando a abordagem das EEGs, propriedades e estimação;

ii) Fazer um estudo da precisão do ponto estacionário com estimação pontual e intervalar, dos modelos em (i);

iii) Comparar as abordagens descritas em (ii) fazendo uso de dados simulados.

1.4 Procedimentos Metodológicos

Este trabalho trata-se de uma pesquisa de natureza teórica e aplicada. Teórica por apresentar um levantamento bibliográco acerca da Metodologia de Superfície de Resposta, dos Modelos Lineares Generalizados para análise de dados longitudinais, do método delta e do método bootstrap. De natureza prática, pois compara a precisão dos modelos ajustados, utilizando-se de conjuntos de dados simulados.

1.5 Estrutura do trabalho

Esta dissertação encontra-se dividida em 6 capítulos. No Capítulo 1 é apre-sentada uma introdução, a qual contém a contextualização, a justicativa, os objetivos e os procedimentos metodológicos da pesquisa. No Capítulo 2 é apresentada a metodologia

(19)

de superfície de resposta. No Capítulo 3 são abordados os modelos lineares generalizados para análise de dados longitudinais. No Capítulo 4 é apresentado o modelo de superfície de resposta para dados de contagem longitudinais. No capítulo 5 é apresentada a aná-lise dos conjuntos de dados simulados. E, por m, no Capítulo 6 são apresentadas as conclusões e, na sequência, as referências bibliográcas e apêndice.

(20)

Neste capítulo é apresentada a denição e estruturação da metodologia de superfície de resposta.

2.1 Denição

A Metodologia de Superfície de Resposta (MSR), ou Response Surface Metho-dology é uma coleção de técnicas matemáticas e estatísticas, as quais são úteis para modelar e analisar problemas em que a variável de interesse (variável resposta) é inu-enciada por várias outras variáveis independentes (fatores) na otimização de processos (MONTGOMERY, 2013; ACHCAR et al., 2014).

A MSR é um procedimento sequencial e extenso, cujo objetivo é identicar as soluções ótimas de um processo de acordo com as restrições do mesmo. Isso permite que o interessado não só entenda o mecanismo do sistema, mas também encontre as condi-ções ideais para o mesmo. As principais diretrizes para se trabalhar com um modelo de superfície de resposta são: Amostragem, Modelagem e Otimização.

Em Montgomery (2013) é apresentado um exemplo em que um engenheiro químico deseja encontrar os níveis de temperatura (x1) e pressão (x2) que maximizam o

rendimento (y) de um processo. O rendimento do processo é uma função dos níveis de temperatura e pressão, podendo ser expresso da seguinte forma:

y = f (x1, x2) + , (1)

em que  representa o erro experimental ou amostral, para o qual supõe-se uma dis-tribuição Normal de média zero e variância σ2. Sendo a esperança de y denotada por

E(Y ) = f (x1, x2), então

ˆ

y = f (x1, x2) (2)

(21)

Figura 1: Superfície de resposta e gráco de contorno do valor esperado do rendimento (ˆy) em função da temperatura (x1) e pressão (x2).

FONTE: Montgomery (2013)

De acordo com Montgomery (2013), na maioria dos problemas que envolvem MSR a maneira como a resposta se relaciona com os fatores é desconhecida. Com isso o primeiro passo é encontrar uma aproximação apropriada para a verdadeira relação entre a variável resposta e os fatores. Costuma-se empregar um polinômio de ordem inferior em alguma região das variáveis independentes, e se a resposta é bem modelada por uma função linear dos fatores, então a função de aproximação é o modelo de primeira ordem

y = β0+ β1x1+ β2x2+ ... + βkxk+ , (3)

sendo βi's, i = 0, 1, 2, ..., k, os parâmetros do polinômio e k o número de variáveis

regres-soras do modelo.

Se houver curvatura no sistema, então deve ser usado um polinômio de grau mais elevado, tal como o modelo de segunda ordem

y = β0+ k X i=1 βixi+ k X i=1 βiix2i + k X i=1 k X j=1 βijxixj + , ∀i < j (4)

sendo βi's, i = 0, 1, 2, ..., k, os parâmetros de primeiro grau, βii's os parâmetros de segundo

grau e os βij's os de interação entre os níveis dos fatores do modelo (MYERS et al., 1989).

Quase todos os problemas que envolvem MSR usam um ou ambos os modelos (3) e (4). No entanto, um modelo polinomial pode não ser uma aproximação razoável da verdadeira relação funcional ao longo de todo o espaço dos fatores, mas por uma

(22)

RUNGER, 2003).

2.2 Delineamentos experimentais para ajuste dos modelos

Para um melhor ajuste dos modelos (3) e (4) é necessário que sejam realizados delineamentos experimentais adequados para a coleta dos dados.

1o CASO - Modelos de Primeira Ordem

De acordo com Khuri e Mukhopadhyay (2010) é muito comum utilizar os se-guintes delineamentos em modelos de primeira ordem: 2k Fatorial, em que k é o número

de fatores, Plackett-Burman e o Simplex.

No Delineamento 2k Fatorial, cada fator possui dois níveis que podem ser

codicados para os valores −1 e 1, os quais correspondem aos chamados baixo e alto nível de cada variável independente (fator). Este delineamento consiste em usar todas as combinações possíveis dos níveis dos k fatores.

No Delineamento Plackett-Burman é permitido dois níveis para cada um dos k fatores, assim como no delineamento 2k Fatorial, porém exige um número bem

menor de experimentos, especialmente se k for grande. Portanto, é mais econômico do que o delineamento 2k Fatorial. Este delineamento é dito ser saturado, pois o número de

pontos do desenho é igual ao número de parâmetros a serem estimados no modelo. O Delineamento Simplex também é saturado e seus pontos estão localizados nos vértices de uma gura k-dimensional do tipo regular ou de um simplex, caracterizado pelo fato de que o ângulo θ que ca localizado na origem do sistema de coordenadas, feito por qualquer dois pontos e o centro do desenho, é tal que o cos(θ) = −1

k. Por exemplo,

para k = 2, o delineamento consiste nos vertíces de um triângulo equilátero, cujo centro é (0, 0), e para k = 3, os pontos do desenho são os vértices de um tetaedro centrado em (0, 0, 0).

2o CASO - Modelos de Segunda Ordem

De acordo com Khuri e Mukhopadhyay (2010) frequentemente são usados os seguintes delineamentos em modelos de segunda ordem: 3k Fatorial, Composto Central e

(23)

O Delineamento 3 Fatorial, consiste em todas as combinações dos níveis dos k fatores que possuem três níveis cada. Se os níveis estiverem igualmente espaçados, então eles podem ser codicados para que correspondam a −1, 0, 1. O número de experi-mentos para este delineamento é 3k, que pode ser muito grande dependendo do valor de k. O Delineamento Composto Central - DCC, possivelmente é o mais po-pular para o caso de modelos de segunda ordem. Este delineamento consiste nas seguintes partes (DEAN et al., 2015):

1 - Um delineamento fatorial completo (ou uma fração) 2k, cujos níveis dos

fatores são codicados com −1 e 1;

2 - Uma porção axial que consiste em 2k pontos, de modo que sejam escolhidos dois pontos no eixo de cada fator a uma distância α do centro do desenho (escolhido como ponto a origem do sistema de coordenadas);

3 - Uma porção de n0 pontos centrais.

Portanto, o número total de pontos no DCC é n = 2k+ 2k + n 0.

O DCC é obtido aumentando o modelo de primeira ordem, isto é, o fatorial 2k com os seguintes experimentos adicionais: 2k pontos axiais e n0 replicações de pontos

centrais.

O modelo de primera ordem é util na fase preliminar para obter informações so-bre o sistema de resposta e para avaliar a inuência dos fatores em um dado experimento. Os experimentos adicionais são escolhidos com o objetivo de obter mais informações que possam levar à determinação de condições operacionais ótimas nas variáveis de controle usando o modelo de segunda ordem.

Os valores de α (ou o parâmetro axial) e n0, o número de replicações de ponto

central, são escolhidos de modo que o DCC possa adquirir certas propriedades desejáveis. Por exemplo, escolhendo α = F1

4, em que F denota o número de pontos na parcela

fato-rial, fazendo com que o DCC seja rotacionável. Em relação ao valor de n0 o mesmo pode

(24)

Figura 2: Delineamento composto central para k = 2 e k = 3.

FONTE: Montgomery (2013)

O Delineamento Box-Behnken, fornece três níveis para cada fator e con-siste em um subconjunto particular das combinações fatoriais do delineamento fatorial 3k. Este delineamento é popularmente utilizado na pesquisa industrial porque é um

de-lineamento econômico e requer somente três níveis para cada fator, em que os níveis são codicados em −1, 0, 1.

2.3 Método da Inclinação Ascendente

Geralmente a estimativa inicial das condições ótimas para o sistema está longe de ser a verdadeira, neste caso o interesse é auxiliar o pesquisador a encontrar a região ótima de maneira rápida utilizando um procedimento simples e ao mesmo tempo econo-micamente eciente.

A análise de uma superfície de resposta pode ser considerada como o processo de subir uma colina, em que o topo da colina representa o ponto de resposta máxima. Se o verdadeiro ótimo é um ponto de resposta mínima, então pode-se pensar em descer para um vale(MONTGOMERY; RUNGER, 2003).

Quando se está distante da região ótima, assumi-se que um modelo de pri-meira ordem é uma aproximação adequada da verdadeira superfície de resposta em uma pequena região dos fatores, ou região experimental. No entanto, se a região do ótimo for encontrada, um modelo mais elaborado, como o de segunda ordem por exemplo, pode ser empregado e uma análise pode ser feita para localizar o ponto ótimo

(MONTGOMERY; RUNGER, 2003).

(25)

delinea-mento sequencialmente na direção do audelinea-mento da resposta. De acordo com Myers et al. (2009) os passos desse método geralmente podem ser descritos da seguinte forma:

Passo 1 - O pesquisador ajusta um modelo de primeira ordem em alguma região restrita das variáveis independentes (fatores);

Passo 2 - A informação a partir do passo 1 é usada para localizar uma direção para aumentar a resposta ao máximo;

Passo 3 - Uma série de experimentos é conduzida ao longo do caminho até que nenhum aumento adicional na resposta seja evidente;

Passo 4 - Repetir os passos 1, 2 e 3 em uma nova região, que pareça ser pro-missora como indicado pelo passo 2.

2.4 Otimização do modelo de segunda ordem

Um dos principais objetivos da MSR é a determinação da otimalidade das variáveis independentes (fatores), as quais retornam uma resposta de valor máximo ou mínimo em relação a uma determinada região de interesse. As técnicas de otimização utilizadas na MSR dependem da natureza do modelo ajustado.

A resposta prevista do modelo de segunda ordem, denido em (4), pode ser escrito matricialmente da seguinte forma:

ˆ

y = ˆβ0 + x>b + x>Bx (5)

sendo x = (x1, ..., xk)>, b = ( ˆβ1, ˆβ2, ..., ˆβk)> e B uma matriz simétrica de ordem k × k,

em que o i-ésimo elemento de sua diagonal é ˆβii(i = 1, 2, ..., k) e os elementos que não

pertencem à sua diagonal são 1

2βˆij(i, j = 1, 2, ..., k; i 6= j).

Supondo que se deseje encontrar os níveis de x1, x2, ..., xk que otimizam a

res-posta prevista. Este ponto, se existir, será o conjunto de x1, x2, ..., xk para o qual as

deri-vadas parciais ∂ˆy/∂x1 = ∂ˆy/∂x2 = ... = ∂ˆy/∂xk = 0. Este ponto é xs = (xs1, xs2, ..., xsk),

o qual é chamado de ponto estacionário.

(26)

∂ˆy

∂x = b + 2Bx = 0. (6)

Assim, o ponto estacionário é a solução da equação (6), ou seja:

xs= −

1 2B

−1

b. (7)

Dessa forma, substituindo a equação (7) em (5), pode-se encontrar a resposta prevista no ponto estacionário como:

ˆ ys = ˆβ0+ 1 2x > sb. (8)

Depois que é encontrado o ponto estacionário, geralmente é necessário caracte-rizar a superfície de resposta na vizinhança desse ponto. Neste caso seria dizer se o ponto estacionário é um ponto de resposta máxima ou mínima ou um ponto de sela.

Uma forma simples de se fazer isso seria examinar um gráco de contorno do modelo ajustado, como por exemplo o mostrado na Figura 1. Porém uma análise mais formal, chamada de análise canônica, pode ser mais útil, principalmente quando se está trabalhando com mais de três variáveis regressoras.

Para isso é necessário primeiro transformar o modelo em um novo sistema de coordenadas com a origem no ponto estacionário xs e depois girar os eixos desse sistema

até que estejam paralelos aos eixos principais da superfície de resposta ajustada. A trans-formação é ilustrada na Figura 3.

(27)

Figura 3: Forma canonica do modelo de segunda ordem.

FONTE: Montgomery (2013)

A transformação resulta no seguinte modelo ajustado (MONTGOMERY, 2013):

ˆ

y = ˆys+ λ1w21+ λ2w22+ ... + λkw2k (9)

em que os wi's são as variáveis independentes transformadas e os λi's são constantes. A

equação (9) é chamada de forma canônica do modelo e os λisão os autovalores ou raízes

características da matriz B.

A natureza da superfície de resposta pode ser determinada a partir do ponto estacionário e os sinais e magnitudes de λi. Primeiramente, é necessário supor que o

ponto estacionário está dentro da região de exploração para ajuste do modelo de segunda ordem. Se todos os λi's são positivos, então xs é um ponto de resposta mínima; Se todos

os λi's são negativos, então xs é um ponto de resposta máxima; E se os λi's tiverem sinais

diferentes, então xs é um ponto de sela.

Os autovalores são obtidos a partir da seguinte relação:

B − λI = 0 (10)

(28)

LONGITUDINAIS

Neste capítulo são apresentadas as Equações de Estimação Generalizadas (EEGs) desenvolvidas por Liang e Zeger (1986), utilizando a teoria de função de estimação (GODAMBE, 1960). Uma função de estimação é uma função dos dados e dos parâ-metros de interesse. O objetivo ao estudar as funções de estimação é o estabelecimento de condições que garantam que os estimadores dos parâmetros envolvidos possuam boas propriedades, dentre elas consistência e distribuição assintótica conhecida.

Liang e Zeger (1986) propuseram uma extensão dos Modelos Lineares Genera-lizados (MLGs), com o objetivo de analisar dados longitudinais. Eles introduziram uma classe de equações de estimação que fornecem estimativas consistentes dos parâmetros de regressão do modelo em estudo, bem como de suas variâncias sob condições moderadas de regularidade. É exigida a especicação correta das distribuições marginais univariadas desde que esteja disposto a adotar uma matriz de correlação de trabalho que indica o grau de dependência entre as medidas repetidas (TRINDADE, 2014).

O termo medidas repetidas refere-se a dados com múltiplas observações na mesma unidade experimental. Na maioria dos casos estas observações são tomadas ao longo do tempo, mas também podem ser tomadas no espaço ou em qualquer outra escala ordenada. Como é plausível supor que as observações na mesma unidade experimental estejam correlacionadas, logo a análise estatística deve abordar a questão da covariância entre as medidas da mesma unidade, caso contrário isso poderá resultar em inferências imprecisas (LITTELL et al., 2000).

Os dados longitudinais são frequentemente encontrados em áreas como: En-genharia, Biologia, ciências médicas, saúde pública, ciências sociais, dentre outras. São dados observados de forma sequencial ao longo do tempo e podem ser coletados de um estudo observacional ou de um experimento projetado. Em essência, os dados longitudi-nais podem ser considerados como uma coleção de muitas séries temporais (SONG, 2007). Em estudos longitudinais, os dados associados a cada unidade experimental podem ser expressos na forma de um vetor cujos elementos são os valores da variável res-posta em cada instante de observação e de uma matriz cujos elementos correspondem aos valores das variáveis explicativas (ou covariáveis), que podem variar entre unidades expe-rimentais ou podem variar também dentro das unidades expeexpe-rimentais, quando estas são covariáveis dependentes do tempo. Os dados longitudinais podem ser balanceados, quando todas as unidades experimentais são medidas nos mesmos instantes (igualmente

(29)

espaçados ou não), ou desbalanceados quando os dados são coletados irregularmente ao longo do tempo (SINGER et al., 2011).

Na Tabela 1 é apresentada a estrutura de um conjunto de dados observados ao longo do tempo, em que em cada unidade experimental, tanto a resposta (Y ) como as covariáveis (X1,..., Xp) são observadas em cada instate do tempo.

Tabela 1: Estrutura de um conjunto de dados longitudinal

Unidade Tempo Resposta Covariáveis

Experimental Y X1 X2 . . . Xp 1 1 y11 x111 x112 . . . x11p 1 2 y12 x121 x122 . . . x12p ... ... ... ... ... ... ... 1 t1 y1t1 x1t11 x1t12 . . . x1t1p 2 1 y21 x211 x212 . . . x21p 2 2 y22 x221 x222 . . . x22p ... ... ... ... ... ... ... 2 t2 y2t2 x2t21 x2t22 . . . x2t2p ... ... ... ... ... ... ... n 1 yn1 xn11 xn12 . . . xn1p n 2 yn2 xn21 xn22 . . . xn2p ... ... ... ... ... ... ... n tn yntn xntn1 xntn2 . . . xntnp

Fonte: Adaptado de Singer et al. (2011). 3.1 Denição

Sejam yi = (yi1, yi2, ..., yiti)

>

vetores aleatórios de respostas mutuamente in-dependentes de medidas repetidas e Xi = (xi1,xi2, ...,xiti)

> uma matriz (t

i× p) referente

às covariáveis para a i-ésima unidade experimental com xij = (xij1, ..., xijp)

>, i = 1, ..., n

e j = 1, ..., ti. A m de simplicar a notação pode-se considerar ti = t sem perda de

generalidade (LIANG; ZEGER, 1986; VENEZUELA et al., 2007). Neste caso assumi-se que a densidade marginal de yij pertence à família exponencial linear, ou seja:

(30)

parâmetros a serem estimados com p < n. Por esta formulação os dois primeiros momentos de yij são dados por (LIANG; ZEGER, 1986; PARK et al., 1998):

E(yij) = b0(θij) = µij, (12)

V ar(yij) = φ−1b00(θij) = φ−1v(µij), (13)

sendo v(µij)conhecida como função de variância e φ−1 > 0 o parâmetro de dispersão, que

geralmente é desconhecido.

As médias µij são modeladas como nos MLGs, em que g(µij) = ηij e g(.) é uma

função monótona e duplamente diferenciável denominada função de ligação. As funções de ligação mais utilizadas são obtidas quando o parâmetro canônico θij coincide com o

preditor linear, ou seja, quando θij = ηij e a função de ligação nestes casos é chamada de

ligação canônica (McCULLAGH;NELDER, 1983).

3.2 Equações de Estimação Independentes (EEIs)

Nesta seção é apresentado o estimador bβI de β em que é considerado que

as medidas repetidas referentes a uma mesma unidade experimental são independentes. A função de estimação ótima, que é a função escore de um MLG, de β é dada por (VENEZUELA, 2003): UβI = φPn i=1D > i A −1 i (yi− µi), (14) em que D> i = X > i Λi e Λi = diag (∂µi1/∂ηi1, ..., ∂µit/∂ηit), Ai =diag (v(µi1), ..., v(µit)) e µi = (µi1, ..., µit)>(VENEZUELA et al., 2007).

A equação de estimação independente de β é obtida igualando uma função de estimação ótima (GODAMBE, 1960) a zero, ou seja:

UβI =Pn i=1D > i A −1 i (yi− µi) = 0. (15)

A matriz de correlação correspondente à i-ésima unidade experimental corres-ponde à matriz identidade de dimensão (t × t), com isso a matriz de variância-covariância de Yi é dada por (PAULA, 2013):

(31)

De acordo com Venezuela (2003), um estimador consistente para a matriz de covariâncias de bβI quando as observações de uma mesma unidade experimental são

independentes, é dado por: b VI = n φPn i=1Dbi>Ab −1 i Dbi o−1 . (17)

3.3 Equações de Estimação Generalizadas (EEGs)

Nesta seção é apresentada uma classe de equações de estimação que leva em conta a correlação dentro de cada unidade experimental, a m de aumentar a eciência do estimador.

Essa metodologia é utilizada para estimar parâmetros de interesse quando os dados são correlacionados e a distribuição marginal pertence a família exponencial linear. Para isso torna-se necessário a introdução de uma estrutura de correlação na função escore, produzindo um novo sistema de equações para estimar β, conforme descrito por Liang e Zeger (1986).

Ao considerar-se que Ri é a verdadeira matriz de correlação dos yi0s, então a

matriz de variância-covariância de Yi, por denição, é dada por:

Σi = φ−1A 1 2 iRiA 1 2 i , (18)

consequentemente a equação de estimação de β é dada por: Zβ∗(β) =Pn i=1D > i Σ −1 i (yi− µi). (19)

Para se estimar β deve-se resolver o seguinte sistema de equações:

Zβ∗( bβG∗) = 0, (20)

e neste caso, um estimador consistente para a matriz de covariâncias bβG∗ se reduz a

(LIANG; ZEGER, 1986; ZEGER; LIANG, 1986; VENEZUELA, 2003): b VG∗ = n Pn i=1Db>i Σb −1 i Dbi o−1 , (21)

o qual recebe os nomes de estimador naive ou model-based. Contudo, a função Z∗

(32)

cor-uma matriz (t × t) simétrica, dada por R(α) que atende o requisito de ser cor-uma matriz de correlação, em que α é um vetor (s × 1) que caracteriza completamente R(α). Essa matriz é conhecida como matriz de correlação de trabalho. Neste caso R(α) não precisa ser necessariamente a verdadeira matriz de correlação dos yi's.

Assim, para se estimar β é necessário resolver o seguinte sistema de equações:

Zβ( bβG) = 0, (22)

denominado Equações de Estimação Generalizadas (EEGs) em que: Zβ(β) = Pn i=1D > i Ω −1 i (yi− µi), (23) e Ωi = φ−1A 1 2 iR(α)A 1 2 i , (24)

sendo Ωi a matriz de variância-covariância de yi.

Liang e Zeger (1986) sugeriram um estimador para a matriz de covariâncias de b

βG, conhecido na literatura como estimador robusto, empírico ou sanduíche, que é

consis-tente mesmo quando a matriz de correlação de trabalho não esteja denida corretamente. O estimador é dado por:

b VG = n Pn i=1Db > i Ωb −1 i Dbi o−1n Pn i=1Db > i Ωb −1 i uu > b Ω−1i Dbi o n Pn i=1Db > i Ωb −1 i Dbi o−1 , (25) em que u = (yi −µbi).

A estimativa de VbG é obtida substituindo β, α e φ por suas respectivas

esti-mativas consistentes.

Considerando que o modelo de regressão está corretamente especicado, o estimador naive é consistente se a matriz de correlação de trabalho também estiver cor-retamente especicada, porém o estimador robusto é sempre consistente. Todavia, como o estimador robusto é assintoticamente não viesado, suas propriedades são garantidas apenas quando o número de unidades experimentais é grande, caso contrário o mesmo poderá ser altamente viesado (PRENTICE, 1988).

(33)

3.3.1 Estimação de β e φ

O processo iterativo para calcular bβG combina o método scoring de Fisher

para estimar β, com o método dos momentos para estimar os parâmetros de correlação αe o parâmetro de escala φ: b βG (m+1) = bβG (m) +  h Pn i=1Db > i Ωb −1 i Dbi i−1h Pn i=1Db > i Ωb −1 i (yi −µbi) i(m) , (26) em que m = 0, 1, 2, ... é o número de iterações. A estimativa inicial bβG

(0)

é arbitrária (McCULLAGH;NELDER, 1983; VENEZUELA et al., 2007).

A expressão (26) pode ser reescrita como b βG (m+1) =nPn i=1X > i WiXi −1Pn i=1X > i Wizi o(m) (27) em que Wi = bΛiΩb −1 i Λbi e zi = b ηi + bΛ −1 i (yi−µbi). Na convergência obtemo-se b βG ≈ X>W X −1 X>W z (28)

sendo W = diag (W1, ..., Wn)uma matriz de pesos X = (X1>, ..., Xn>)>e z = (z>1, ..., z>n)>.

Os parâmetros α e φ podem ser estimados a partir dos resíduos de Pearson (LIANG;ZEGER, 1986). O resíduo de pearson na iteração m, para cada observação yij,

é dado por: b rij(m) = yij −µb (m) ij p b v(µij)(m) , (29)

em que bv(µij) é o j-ésimo elemento da diagonal principal de Ab

m

i , denida em (14).

A estimativa de φ, obtida no m-ésimo momento do processo iterativo, é dada por: b φ(m) = ( n X i=1 (brij(m))2/(nt − p) )−1 . (30)

(34)

O procedimento das EEGs para estimar β permite várias formas de especica-ção para a estrutura da matriz de correlaespecica-ção de trabalho R(α) (LIANG; ZEGER, 1986; DAMIANI, 2012). A seguir são apresentadas algumas delas.

1 - Independente:

Seja R(α) = R0 uma matriz (t × t) de correlação qualquer, quando R0 = I,

a matriz identidade, obtem-se a equação de estimação independente. Para qualquer R0,

b

βG e VbG serão consistentes e quanto mais próxima da verdadeira matriz de correlação

estiver a matriz de correlação de trabalho, a eciência aumenta (LIANG; ZEGER, 1986; JOHNSTON, 1996). Nesse caso, R(α) = R0 é denida por

R(α) = R0 =       1 0 1 ... ... ... 0 0 · · · 1       t×t . 2 - Autoregressiva AR-1:

A matriz de correlação autorregressiva de primeira ordem, AR-1, especica que Corr(yij, yil) = α|j−l|, em que 1 ≤ j e l ≤ t. Para yij com distribuição Normal,

E(brijbril) ∼= α

|j−l|. Então, α no passo m pode ser estimado pelo coeciente angular da

regressão em que a variável dependente é log(brij(m)br(m)il ) e a independente é log| j − l |. A matriz é dada por

R(α) =             1 α 1 α2 α 1 α3 α2 α 1 ... ... ... ... ... αt ... α3 α2 α 1             t×t . em que α ∈ (0, 1).

O estimadorαb é dado por

b α = Pn i=1 P j6t−1rb 2 ijbr 2 i,j+1 b φ(n(t − 1) − p) (31)

(35)

3 - Uniforme:

A matriz de correlação uniforme assume que Corr(yij, yil) = α, ∀j 6= l, em que

1 ≤ j e l ≤ t, de modo que b α(m) = bφ(m) n X i=1 t X j>l b r(m)ij bril(m)/ 1 2nt(t − 1) − p  (32) e R(α) =          1 α 1 α α 1 ... ... ... ... α · · · α 1          t×t . 4 - Não estruturada:

A matriz de correlação não estruturada pode ser estimada por R( ˆα(m)) = 1 n " b φ n X i=1 b A− 1 2 i (yi− ˆµi)(yi− ˆµi) > b A− 1 2 i #(m) (33) em que R(α) =          1 α21 1 α31 α32 1 ... ... ... ... αt1 · · · αt(t−1) 1          t×t .

3.5 Critério para seleção da estrutura de correlação de trabalho

A seleção de modelos é uma etapa bastante importante na análise de dados. Para a regressão linear clássica, com dados independentes, um dos métodos utilizados é o Critério de Informação de Akaike (AIC). Porém, o AIC é baseada na probabilidade e propriedades assintóticas do estimador de máxima verossimilhança (PAN, 2001). Sua expressão é dada por: AIC = −2LL + 2p, em que LL é o logaritmo da máxima verossi-milhança e p é o número de parâmetros no modelo (AKAIKE, 1974; CUI, 2007).

Como nenhuma distribuição é assumida em Equações de Estimatição Generali-zadas (EEGs), não há probabilidade denida, logo o AIC não pode ser usado diretamente. Com isso, Pan(2001) propôs um método de seleção de estrutura de correlação para EEGs, chamado critério de quasi-verossimilhança sob o modelo de independência - QIC, denido

(36)

QIC(R) = −2Q( ˆβ(R); I, D) + 2traço(ˆΩIVˆR), (34)

em que Q é a quasi-verossimilhança, ˆβ(R)é o vetor de estimadores de quasi-verossimilhança sob o modelo candidato com matriz de correlação R , I é a matriz identidade, D são os dados observados, ˆΩI = −∂2Q(β, I, D)/∂β∂β0|β= ˆβ e ˆVR é o estimador de covariâncias

robusto obtido por meio do modelo contendo a matriz de correlação R (PAN, 2001; AGRANONIK, 2009).

O QIC pode ser utilizado para comparar as estruturas de matriz de correlação de trabalho, em que o critério de escolha é baseado no menor valor do mesmo.

3.6 Métodos de diagnóstico

Os procedimentos apresentados a seguir foram extraídos de Venezuela(2003) e Venezuela et al. (2007).

Resíduo Padronizado:

O resíduo padronizado associado à yij é denido por

(rSD)ij = e>(ij)W12Λb −1 (y −µ)b p1 − hij , (35) em que e>

(ij) é um vetor de dimensão (1 × t) de zeros, com 1 na j-ésima posição e hij é

o j-ésimo elemento da diagonal principal da matriz hat, associada ao i-ésimo indivíduo, dada por: Hi= W 1 2 i Xi(X>W X)−1Xi>W 1 2 i . (36)

A matriz de alavancagem geral H é dada por diag (H1, ..., Hn). Além disso,

ela é simétrica e idempotente, de maneira que o rank(H) = traço(H) = p. Ponto Alavanca:

Um grande valor de hij indica que yij tem uma grande inuência no seu

(37)

se hi. = 1 t t X j=1 hij ≥ 2p N, (37) em que N = nt.

Pode-se vericar também se a unidade experimental é um ponto alavanca fa-zendo o gráco de hi. versus i, em que i = 1, ..., n.

Ponto Aberrante/Discrepante/Outlier:

Para detectar um ponto aberrante por meio da análise gráca, pode-se utilizar o resíduo padronizado (rSD)ij versus i, em que i = 1, ..., n e j = 1, ..., t. Um ponto é

considerado aberrante quando este possui perl diferente dos demais no que diz respeito aos valores da variável resposta e também apresenta valor baixo na matriz de projeção H. Ponto Inuente:

Um ponto é considerado inuente quando este possui perl diferente dos de-mais no que diz respeito aos valores da variável resposta, porém apresenta valor alto na matriz de projeção H. Esse tipo de ponto pode inuenciar bastante na estimação dos pa-râmetros de regressão do modelo e pode ser detectado por meio de uma medida chamada distância de Cook.

A distância de Cook mede o afastamento entre a estimativa do vetor para-métrico utilizando todas as observações ( bβG) e sem a observação yij( bβG(ij)), em que

i = 1, ..., n e j = 1, ..., t.

Como, em geral, não é possível uma forma fechada para ( bβG(ij)), tem sido

utilizada uma aproximação de um passo, que consiste em tomar a primeira iteração do processo iterativo pelo método de scoring de Fisher quando o mesmo é iniciado em bβG.

A aproximação ca expressa para os MLGs com medidas repetidas na forma:

b

βG(ij)(1) = bβG−

[X>W X]−1[X>W12e

(ij)][e>(ij)W

1 2Λb −1 (y −µ)]b 1 − hij . (38)

Com isso, a distância de Cook, quando se exclui a observação yij, é denida

(38)

(CD)ij = 1 p( bβG− bβG(ij)) > X>W X( bβG− bβG(ij)) = (rSD)2ij hij p(1 − hij) . (39)

Para vizualização gráca, basta fazer (CD)ij, i = 1, ..., n e j = 1, ..., t versus o

índice i. Daí é considerado ponto inuente aquele que possuir uma valor alto na distância de Cook quando comparado aos demais.

(39)

4 MODELO DE SUPERFÍCIE DE RESPOSTA PARA DADOS DE CONTA-GEM LONGITUDINAIS

Os modelos lineares clássicos são utilizados para estudo de fenômenos aleató-rios, porém nem sempre esses fenômenos apresentam uma estrutura de dados na qual se pode considerar as pressuposições necessárias. Por exemplo, no caso de dados de conta-gem é necessário a aplicação de uma transformação na variável resposta Y, usualmente utilizada √y, a m de buscar a normalidade dos dados e constância de variância e desta forma utilizar a metodologia tradicional (PAULA, 2013).

Os MLG's fornecem muitas opções para a escolha da variável resposta,o que já evita a necessidade de aplicação de uma transformação da variável resposta e permite o estudo do fenômeno com os dados na escala original.

Para utilização dessa metodologia, a variável resposta, ou componente alea-tório do modelo, deve ter uma distribuição pertencente à família de distribuições (11) que engloba as distribuições Normal, Gama e Normal Inversa para dados contínuos; Binomial para proporções; Poisson e Binomial Negativa para contagens (CORDEIRO; DEMÉTRIO, 2007).

Todavia, os MLG's tradicionais assumem independência entre as observações, e quando se está tratando de dados com uma estrutura longitudinal, tal suposição pode não ser mais razoável. No presente capítulo serão apresentadas duas modelagens para dados de contagem longitudinais para os modelos de superfície de resposta, cujas esti-mativas dos parâmetros do modelo se darão por meio da abordagem EEG proposta por Liang e Zeger (1986), uma utilizando resposta Normal, em que neste caso será aplicada uma transformação na variável resposta, e outra utilizando resposta Poisson.

4.1 Modelo Normal

A distribuição Normal é utilizada no ajuste de dados de contagem quando aplica-se alguma transformação nos dados. Seja yij uma variável aleatória com

distribui-ção Normal de média µij e variância σ2, ou seja, yij ∼N (µij, σ2)e i = 1, ..., n, j = 1, ..., t,

sua função densidade de probabilidade na estrutura longitudinal é dada por: f (yij, µij, σ) = exp− [yij − µij]

2

/2σ2 √ 1

2πσ2, (40)

(40)

f (yij, µij, σ) = exp  1 σ2(yijµij − µ2 ij 2 ) − 1 2y 2 ij/σ2+ ln(2πσ2)   , (41) em que i = 1, ..., n, j = 1, ..., t, −∞ < µij, yij < ∞ e σ2 > 0.

Como a equação (41) é da forma da equação (11), logo tem-se que θij = µij,

b(θij) = µ2 ij 2 , φ = 1 σ2 e c(yij, φ) = −12y2ij/σ2+ ln(2πσ2)  .

O preditor linear é dado por ηij = x>ijβ. A função de ligação canônica é a

identidade, ou seja, ηij=g(µij)=µij = x>ijβ.

4.2 Modelo Poisson

O modelo de probabilidade frequentente utilizado para modelar dados de con-tagem é o Poisson, cuja função densidade de probabilidade é expressa da seguinte forma (MYERS et al., 2010): f (yij, µij) = e−µijµyij ij yij! , (42) que é equivalente a f (yij, µij) = exp [yijln µij − µij − ln(yij!)] , (43) sendo yij = 0, 1, 2, ..., i = 1, ..., n e j = 1, ..., t.

Como a equação (43) também é da forma da equação (11), logo tem-se que θij = ln µij, b(θij) = eθij, φ = 1 e c(yij, φ) = − ln(yij!).

Sob as pressuposições de taxa constante e independência, tem-se que a média e variância da distribuição Poisson são iguais, ou seja, E(Yij) = V ar(Yij) = µij. A função de

ligação canônica é a logarítimica, dada por: g(µij)=ln(µij) = ηij = x>ijβ. Logo, a relação

da média da variável resposta com seu preditor linear é dada pela seguinte expressão: µij = g−1(x>ijβ) = ex

>

ijβ, (44)

em que β = (β0, β1, ...., βp)> é o vetor de parâmetros de regressão do modelo.

A função de ligação logaritmica é apropriada para a distribuição Poisson, pois a mesma garante que os valores previstos para a variável resposta serão não negativos.

(41)

4.2.1 Estimação de β

Conforme denido na pág. 29, tem-se de (14) que Ai= diag (v(µi1), ..., v(µit))

e no caso da distribuição Normal, v(µij) = 1, e para o caso da distribuição Poisson,

v(µij) = µij, em que i = 1, ..., n, j = 1, ..., t, logo tem-se:

Caso - Distribuição Normal: Ai =       1 0 · · · 0 0 1 · · · 0 ... ... ... ... 0 0 · · · 1       t×t .

Caso - Distribuição Poisson:

Ai =       µi1 0 · · · 0 0 µi2 · · · 0 ... ... ... ... 0 0 · · · µit       t×t .

A matriz de variância-covariância de yi , por denição, é dada por:

Ωi = φ−1A 1 2 iR(α)A 1 2 i , (45)

Caso - Distribuição Normal:

Ωi = σ2R(α), (46)

Caso - Distribuição Poisson:

Ωi = A 1 2 i R(α)A 1 2 i . (47)

O estimador de β é obtido por meio da solução das equações de estimação generalizadas Pn i=1D > i Ω −1 i (yi − µi) = 0, (48) em que D> i = X > i Λi. No caso Normal D > i = X > i e no caso Poisson D > i = X > i eX > i β,

logo o estimador por meio das EEGs de β é a solução da equação Pn i=1X > i (σ 2R( b α))−1(yi− Xi>β) = 0 (49)

(42)

Pn i=1X > i eXi β A2 iR(α)Ab 2 i yi− eXi β = 0 (50)

para a distribuição Poisson, em que a mesma é uma equação não linear em β, e desta forma para se obter sua solução torna-se necessário a utilização de algum método itera-tivo, como por exemplo o apresentado em (27).

Por meio do processo iterativo (27) bβG atinge convergência quando

b

βG ≈ X>W X

−1

X>W z. (51)

No caso da distribuição Normal tem-se W = bΛ bΩ−1Λ = I bb Ω

−1

I =bσ2R(α),b (52)

em que I representa a matriz identidade,

z = η + bb Λ−1(y −µ) = Xb i>β + Ib −1(y − Xi>β) = yb (53) logo, b βG = X>R(α)Xb −1 X>R(α)y.b (54)

Quando se assume independência nas unidades experimentais, ou seja, R(α) = Ib obtem-se o estimador de máxima verossimilhança bβG = (X>X)−1X>y, em que para o

conseguir não é necessário recorrer ao processo iterativo (27), tendo em vista que nesse caso bβG possui forma analítica.

4.3 Ajuste da superfície de resposta - Modelo de Segunda Ordem

Um dos delineamentos frequentemente usados em modelos de segunda ordem é o DCC, sendo este um dos mais populares (KHURI; MUKHOPADHYAY, 2010). Com ns de aplicação foi utilizado como exemplo apenas dados coletados por meio do DCC, logo o modelo abordado nesse trabalho foi o de segunda ordem.

Na metodologia tradicional o modelo de segunda ordem nos retorna de ime-diato a previsão da média, ou seja, ˆµ no ponto estacionário. Porém, quando se está trabalhando com os MLG's o modelo retorna a previsão do preditor linear, nesse caso, ˆη que nem sempre é igual a média prevista, logo é necessário inverter a função de ligação utilizada para se obter ˆµ.

(43)

Não é necessário realizar a inversão da função de ligação apenas quando a mesma for a identidade, ou seja, g(ˆµ) = ˆµ = ˆη, como é o caso da distribuição Normal. Já no caso da distribuição Poisson em que ˆη = ln ˆµ, para se obter ˆµ é necessário aplicar a inversão, ou seja, ˆµ = eηˆ.

O valor predito em notação matricial utilizando MLG's tem a seguinte estru-tura (KHURI, 2001; JOHNSON; MONTGOMERY, 2009):

ˆ η = g(ˆµ) = ˆβ0+ x>b + x>Bx, (55) com x =       x1 x2 ... xk       k×1 b =       ˆ β1 ˆ β2 ... ˆ βk       k×1 e B =        ˆ β11 ˆ β12 2 · · · ˆ β1k 2 ˆ β21 2 βˆ22 · · · ˆ β2k 2 ... ... ... ... ˆ βk1 2 ˆ βk2 2 ... ˆβkk        k×k ,

O valor esperado na escala original é ˆ µs= g−1(ˆηs) = g−1( ˆβ0+ 1 2x > sb). (56)

Em relação a distribuição Normal o valor esperado na escala original é equi-valente ao descrito em (8). Contudo, está sendo utilizada a transformação raiz quadrada na variável resposta, o valor esperado na escala original ca da seguinte forma:

ˆ µs= ˆη2s =  ˆ β0+ 1 2x > sb 2 , (57)

e em relação a distribuição Poisson o valor esperado na escala original é dado por ˆ

µs = eηˆs = e ˆ

β0+12x>sb. (58)

4.4 Estudo da Variância de ˆµs

4.4.1 Variância do Preditor Linear

A variância do preditor linear aplicada no ponto estacionário é dada pela se-guinte expressão:

V ar(ˆηs) = V ar(x>0β) = xˆ >0V ar( ˆβ)x0, (59)

em que x0 = (1, xs1, ..., xsk, x2s1, ..., x2sk, xs1xs2, ..., xs1xsk, xs2xs3, ..., xs2xsk, ..., xsk−1xsk)>, xs=

(44)

estimação propostas por Liang e Zeger (1986), apresentada no Capítulo 3. 4.4.2 Variância da Média

Para o cálculo da variância da resposta média estimada no ponto estacionário, V ar(ˆµs) , foi utilizado o método delta de primeira ordem. O método delta usa uma

ex-pansão de Taylor, produzindo uma variância aproximada para uma função não-linear de uma variável aleatória (COX, 1990).

Como ˆµ é função de ˆη, pode-se obter sua variância aproximada por meio da relação dada na equação (60), a qual é resultado da aproximação de primeira ordem por série de Taylor de ˆµ, em torno de ˆη (SILVA et al., 2010).

ˆ

µ = g−1( ˆη) = f ( ˆη) = f (η)+f0(η)>( ˆη−η)+Op(.) =⇒ f ( ˆη)−f (η) ≈ f0(η)>( ˆη−η) (60)

em que f0(η) = ∂f (η) ∂η .

Aplicando o seguinte produto nos vetores em (60) obtem-se

(f ( ˆη) − f (η)) (f ( ˆη) − f (η))> ≈ f0(η)>( ˆη − η)( ˆη − η)>f0(η), (61) implicando que

( ˆµ − µ)( ˆµ − µ)> ≈ f0(η)>( ˆη − η)( ˆη − η)>f0(η), (62) e quando é aplicado o operador esperança, obtem-se (EFRON;TIBSHIRANI, 1993)

E( ˆµ − µ)( ˆµ − µ)> ≈ f0(η)>E(ˆη − η)( ˆη − η)> f0(η), (63) logo

V ar( ˆµ) ≈ f0( ˆη)>V ar( ˆη)f0( ˆη). (64) Portanto, a variância da média no ponto estacionário tem a seguinte expressão: V ar(ˆµs) = f0(ˆηs)>V ar( ˆηs)f0(ˆηs), (65)

se f0η s) 6= 0.

(45)

No caso da distribuição Normal, como está sendo trabalhado com uma variável transformada, é necessário retornar o valor para a escala original. No caso da transfor-mação raiz quadrada, tem-se a seguinte expressão da variância:

V ar(ˆµs) = 2ˆηsV ar( ˆηs)2ˆηs = 4(x>0β)V ar( ˆˆ ηs)(x>0β)ˆ (66)

e no caso da distribuição Poisson, a variância ca da seguinte forma: V ar(ˆµs) = eηˆsV ar( ˆηs)eηˆs = ex

>

0βV ar( ˆˆ ηs)ex >

0β.ˆ (67)

4.5 Intervalos de conança para ˆµs

4.5.1 Intervalo de conança baseado no método delta de 1a ordem

O intervalo de conança baseado no método delta de 1a ordem para µ

s é dado por: IC100(1−α)%(µs) =  ˆ µs± z(1−α2) q ˆ V ar(ˆµs)  . (68)

Esse intervalo de conança é também conhecido como intervalo assintótico, sendo z(1−α2) o quantil de ordem (1 − α/2) da distribuição Normal padrão e V ar(ˆµs) a

variância assintótica de 1a ordem de ˆµ

s (SILVA et al., 2010).

4.5.2 Intervalo de conança baseado no método da inversa da função de ligação Lewis et al., (2001) também apresentam um outro procedimento para a cons-trução do intervalo de conança para µs, baseado na inversa da função de ligação, g−1.

Neste caso o intervalo é dado por:

IC100(1−α)%(µs) = g−1  ˆ ηs± z(1−α 2) q ˆ V ar(ˆηs)  . (69)

4.5.3 Intervalo de conança percentil baseado no bootstrap residual

O intervalo de conança bootstrap (EFRON, 1979; EFRON;TIBSHIRANI, 1993) possui vantagens por não utilizar resultados assintóticos para a distribuição dos estimadores. Esse tipo de intervalo é apropriado quando se tem uma amostra pequena, ou quando for crítica a suposição de normalidade.

Os passos principais do método bootstrap residual são os seguintes (MARTINEZ-ESPINOSA et al., 2006):

(46)

1 - Ajustar um modelo de regressão considerando os dados da amostra original e obter os resíduos ordinários ˆi = yi − g−1(x>i β)ˆ , em que i=1, ..., nt, considerando a

estrutura longitudinal;

2 - Selecionar uma amostra aleatória de tamanho n , dos resíduos ˆ obtidos no passo 1, utilizando reamostragem com reposição, com probabilidade 1/n para cada resíduo selecionado BR.

3 - Gerar os novos valores de y pela seguinte equação ˆyBR

= g−1(x>β) + ˆ BR,

em que BR é o vetor de resíduos obtidos no passo 2 e ˆβ é um vetor de parâmetros

des-conhecidos, estimados no passo 1;

4 - Ajustar o modelo de regressão yBR∗

= g−1(x>β∗) + BR∗ para obter as estimativas de β∗.

5 - Repetir os passos 1, 2, 3 e 4, R vezes. Geralmente o número de iterações R é xado em 999.

Portanto, um intervalo de conança que se pode obter por meio do bootstrap residual para µs é o percentil, que é feito por meio da ordenação ˆµs1 ≤ ˆµs2 ≤, ..., ≤ ˆµsR,

as quais são as respostas médias estimadas no ponto estacionário obtidas durante as R iterações. O intervalo que se obtem é o seguinte:

IC100(1−α)%(µs) = ˆµs(R+1)(α/2); ˆµs(R+1)(1−α/2) , (70)

em que α é o nível de signicância.

Vale ressaltar que os passos apresentados anteriormente são realizados na es-cala da variável resposta y e não do preditor linear, logo quando se está sendo utilizado MLGs é necessário observar o tipo de função de ligação aplicada no modelo de regressão e se foi feito algum tipo de transformação na variável resposta.

(47)

5 ANÁLISE DOS CONJUNTOS DE DADOS SIMULADOS

Neste capítulo são apresentados dois estudos de simulação (um com dois fato-res e outro com três) para dois conjuntos de dados de delineamentos compostos centrais, com medidas repetidas no tempo e resposta de contagem. Os dados simulados foram analisados utilizando-se a metodologia descrita nos capítulos anteriores.

Foram utilizados o modelo de regressão Poisson com ligação canônica (lnµ = η) e o modelo de regressão Normal com transformação na variável resposta do tipo (√µ = η), para vericar o desempenho dos mesmos por meio da variabilidade da reposta estimada no ponto estacionário.

Estrutura da simulação

Para a simulação e análise dos conjuntos de dados foi utilizado o software R (R Core Team, 2016), de domínio público, que pode ser obtido em https://www.r-project.org/.

O algoritmo de simulação das variáveis respostas, com distribuição Poisson, foi baseado em Johnson et al (1997). Em ambos cenários, foi utilizado um DCC com: duas (1a conjunto) e três (2a conjunto) variáveis regressoras, de forma que nas simulações

o DCC se mantém xo.

Metodologia de Superfície de Resposta no R

No caso da MSR o pacote utilizado foi o rsm (LENTH, 2009). Este pacote fornece funções que nos permitem gerar delineamentos de superfície de resposta, ajustar modelos de superfície de resposta de primeira e de segunda ordem, fazer grácos de su-perfície, além de aplicar o método da inclinação ascendente e fazer análise canônica. Equações de Estimação Generalizadas no R

Já no caso das EEG's foi utilizado o pacote gee, o qual soluciona equações de estimação generalizadas. Existe um outro pacote que também poderia ter sido utilizado para ajustar os modelos de regressão por meio dessa metodologia, que seria o geepack (HOJSGAARD et al., 2006). Porém, por questões de praticidade na resolução de alguns procedimentos relacionados à análise dos dados, o pacote gee se demonstrou uma melhor opção.

(48)

O conjunto de dados apresentado na Tabela 2 foi gerado por meio de simulação no software R. Trata-se de um conjunto de dados longitudinais, em que o mesmo possui duas variáveis regressoras X1 e X2 e uma variável resposta medida em três tempos: Y1, Y2

e Y3. As variáveis regressoras foram geradas formando um delineamento composto central

de 12 pontos por meio da função ccd disponível dentro do pacote rsm do R. A variável resposta no tempo 1 (Y1) foi gerada a partir da distribuição Poisson por meio da função

rpois que gera números aleatórios dessa distribuição e que está disponível no pacote stats. Para os pontos fatoriais foram gerados quatro números com média igual a 6, para os axiais quatro números com média igual a 4 e para os centrais quatro números com média igual a 10.

As variáveis no tempo 2 (Y2) e no tempo 3 (Y3) foram geradas da seguinte

forma: Y2 = Y1+ Y22, em que Y22 ∼ P oisson(2)e Y3 = Y1+ Y33, em que Y33∼ P oisson(4).

Tabela 2: Delineamento composto central de 12 pontos com dados de contagem simulados em três momentos: Y1, Y2 e Y3. Unidade X1 X2 Y1 Y2 Y3 experimental 1 −1 −1 4 6 4 2 1 −1 7 7 9 3 −1 1 6 8 12 4 1 1 4 5 10 5 −1, 414 0 4 5 10 6 1, 414 0 4 6 7 7 0 −1, 414 3 4 8 8 0 1, 414 5 6 7 9 0 0 15 18 19 10 0 0 6 7 10 11 0 0 7 12 16 12 0 0 16 16 19

Referências

Documentos relacionados

Assim, a presente pesquisa objetiva apresentar uma proposta voltada à re- ferida zona de esperança, que pressuponha o uso correto dos direitos do homem, a partir de uma

CONCLUSÕES E PROPOSTAS PARA TRABALHOS FUTUROS Nesta dissertação, foi apresentada uma avaliação do desempenho das funções de proteção aplicadas em transformadores de potência,

Através da apresentação e análise dos dados verifica-se que, à parte do nível escolar, é muito difícil poder desenvolver as competências de planificação ou

Ao contrá- rio, se a contaminação é precoce e se t o das as condições são favoráveis à exterio rização, os sintomas descritos aparecem de uma maneira muito

O modelo de toxicidade reprodutiva empregado para realização deste trabalho consiste da administração prolongada do eugenol durante a gestação de ratas Wistar,

forficata recém-colhidas foram tratadas com escarificação mecânica, imersão em ácido sulfúrico concentrado durante 5 e 10 minutos, sementes armazenadas na geladeira (3 ± 1

Até onde sabemos, não existe nenhum estudo que demonstrou o efeito da administração do hormônio DHEA sobre a função autonômica cardíaca de ratos, bem como

Our contributions are: a set of guidelines that provide meaning to the different modelling elements of SysML used during the design of systems; the individual formal semantics for