• Nenhum resultado encontrado

2 Aspectos teóricos

2.4 Planejamento experimental

2.4.2 Modelo estatístico e análise de variância

Tomando como exemplo um planejamento fatorial 22 sem repetições, o modelo estatístico que descreve o comportamento desse experimento é dado de acordo com a Equação 2:

𝑦!" = 𝜇 + 𝜏!+ 𝛽!+ (𝜏𝛽)!" + 𝜀!" (2)

onde µ a média geral do experimento, 𝜏! é o efeito do i-ésimo nível de um fator, βj é o efeito

do j-ésimo nível do outro fator, γij é o efeito da interação entre os fatores e εij é o erro aleatório

(ou erro experimental).

Esse é o modelo mais simples possível de um planejamento fatorial 2k é aquele onde não são feitas réplicas, isto é, existe apenas uma observação para cada combinação. Neste tipo de experimento, não é possível estimar a variância das observações e nem os erros, e nenhum teste estatístico pode ser feito. Desse modo, não é possível estabelecer a significância estatística dos efeitos e dos parâmetros da regressão. (CALADO; MONTGOMERY, 2003). Deve-se, em caso de impossibilidade de repetição de todos os ensaios, selecionar aqueles que são capazes de contemplar satisfatoriamente a faixa experimental estudada e replicá-los, tornando possível a estimativa da análise de variância e do erro experimental.

Já para o caso de serem feitas “k” repetições no planejamento anterior, o modelo denota-se pela Equação 3:

𝑦!"# = 𝜇 + 𝜏!+ 𝛽!+ (𝜏𝛽)!" + 𝜀!"# (3)

Quando o número de fatores aumenta, consequentemente aumenta a quantidade de efeitos devido a interação entre os fatores. Como exemplo, pode-se observar a Equação 4, do modelo de um planejamento 23 com “l” repetições.

𝑦!"#$ = 𝜇 + 𝜏! + 𝛽!+ 𝛾!+ (𝜏𝛽)!"+ (𝜏𝛾)!"+ (𝛽𝛾)!"+ (𝜏𝛽𝛾)!"#+ 𝜀!"#$ (4)

Os efeitos dos fatores e das interações são visualizados por meio da Análise de Variância (ANOVA). A ANOVA é uma técnica de análise estatística muito comumente utilizada para aceitar ou rejeitar, estatisticamente, as hipóteses investigadas com os

experimentos, observando a significância estatística dos efeitos nas respostas obtidas. (GALDÁMEZ e CARPINETTI, 2004).

Na ANOVA são mostradas as contribuições de qualquer parâmetro no modelo matemático, representadas pelas somas quadráticas. Basicamente a ANOVA inicia-se com uma decomposição algébrica dos desvios das respostas observadas em relação à resposta média global, como mostrado pela Equação 5. (BARROS NETO, 2010).

𝑦!− 𝑦 = 𝑦! − 𝑦 + 𝑦! − 𝑦! (5)

Onde:

𝑦! − 𝑦 = desvio de uma resposta individual (𝑦!) em relação à média de todas as respostas (𝑦);

𝑦! − 𝑦 = desvio da previsão feita pelo modelo 𝑦 em relação à média (𝑦);

𝑦! − 𝑦! = desvio da resposta individual (𝑦!) em relação à previsão feita pelo modelo (𝑦!).

Para que essa comparação possa ser quantificada, eleva-se todos os termos da Equação 5 ao quadrado e faz-se o somatório de todos os pontos, o que resulta na Equação 6. Cada termo do somatório é chamado de soma quadrática (SQ), onde o primeiro termo é a SQ em torno da média (𝑆𝑄!), o segundo, a SQ devido à regressão (𝑆𝑄!) e o último, a SQ residual

(𝑆𝑄!). 𝑦!" − 𝑦 ! !! ! ! ! = 𝑦!− 𝑦 ! !! ! ! ! + 𝑦!"− 𝑦! ! !! ! ! ! (6)

De forma simplificada, tem-se que:

𝑆𝑄! = 𝑆𝑄! + 𝑆𝑄! (7)

Assim, é possível observar que quanto menor SRr, melhor será a concordância entre as

observações e o modelo. Desse modo, essa concordância é quantificada a partir do coeficiente de determinação (R2), dado pela Equação 8. (BARROS NETO, 2010). Quanto mais próximo de 1, melhor será o ajuste do modelo.

𝑅! = 𝑆𝑄!

𝑆𝑄! (8)

Outra informação importante para a análise de variância é o número de graus de liberdade da soma quadrática. Para SQR, tem-se um grau de liberdade de (p-1), sendo “p” os

parâmetros (coeficientes) do modelo; já para SQr, tem-se um grau de liberdade de (n-p), sendo

“n” o número de observações; por fim, SQT apresenta um grau de liberdade de (n-1).

O quociente entre a soma quadrática e o respectivo grau de liberdade resulta na média quadrática (MQ). A razão entre as médias quadráticas da regressão (MQR) e dos resíduos

(MQr) equivale à razão entre as duas variâncias e é utilizada para fins de comparação através

do teste F (distribuição de Fisher). Também podeser feito pela razão entre a média quadrática da falta de ajuste (MQfaj) e do erro puro (MQep). (TEÓFILO; FERREIRA, 2006). Essas

médias são calculadas a partir de suas respectivas somas quadráticas que, por sua vez, são provindas da decomposição dos resíduos em duas partes, que depois são submetidas ao somatório e elevadas ao quadrado, assim como em SQT, como mostrado nas Equações 9 e 10.

𝑦!− 𝑦! = 𝑦!− 𝑦 − 𝑦! − 𝑦 (9) 𝑦!"− 𝑦! ! !! ! ! ! = 𝑦! − 𝑦 ! !! ! ! ! + 𝑦! − 𝑦 ! !! ! ! ! (10)

O primeiro termo do lado direito dá uma medida do erro aleatório das replicatas e é chamado de soma quadrática devida ao erro puro (𝑆𝑄!"). Já o segundo termo do lado direito depende do modelo e, por isso, é chamado de soma quadrática devido a falta de ajuste

(𝑆𝑄!"#), pois representa a discrepância entre o modelo previsto e a média das respostas.

(TEÓFILO; FERREIRA, 2006). Desse modo, é possível representar a Equação 10da seguinte forma:

𝑆𝑄! = 𝑆𝑄!"+ 𝑆𝑄!"# (11)

Assim, determinam-se as médias quadráticas devido a falta de ajuste (MQfaj) e do erro

puro (MQep) dividindo as respectivas somas quadráticas pelos graus de liberdade a que

Com todas as fontes de variação estabelecidas, tem-se a construção da tabela de análise de variância em sua versão completa, como apresentado na Tabela 2.2. (BARROS NETO, 2010).

Tabela 2.2: Análise de variância para o ajuste, pelo método dos mínimos quadrados, de um modelo linear. m = número de níveis distintos da variável independente; n = número total de observações; p = número de

parâmetros do modelo.

Fonte: BARROS NETO, 2010.

Quando se tem um planejamento sem repetição, é possível determinar a falta de ajuste e o erro puro através da adição de pontos centrais replicados. Assim, o valor 𝑦 nas equações apresentadas na Tabela 2.2 é substituído por 𝑦!, que equivale à média das observações replicadas no ponto central.

A significância estatística da regressão é analisada a partir da distribuição de Fisher (teste F), que faz uma comparação entre a significância estatística da regressão e da falta de ajuste com valores tabelados. Com relação à significância estatística da regressão, considera- se o valor da métrica F (𝐹!"#! = 𝑀𝑄! 𝑀𝑄!), usado para testar a hipótese de que todos os coeficientes do ajuste são nulos (hipótese nula), em comparação com o valor tabelado de F (Ftab), correspondente à distribuição de Fisher. Assim, considerando um nívelde significância

α (onde geralmente α = 0,05), caso Fcalc seja maior que Ftab, rejeita-se a hipótese nula e a

regressão é considerada estatisticamente significativa. (DUARTE; MEOLA, 2007). O valor tabelado de F é definido de acordo com a tabela mostrada no Anexo I.

Já com relação à significância estatística da falta de ajuste, o teste da hipótese nula é realizado da mesma forma, considerando apenas as médias quadráticas correspondentes à

falta de ajuste e do erro puro. O valor de F é dado então por ( 𝐹!"#! = 𝑀𝑄!!" 𝑀𝑄!" ) e, caso ele seja maior que Ftab, o modelo não estará bem ajustado.

Essas duas considerações do teste F implicam no fato de que, em caso de teste positivo, o modelo tem não somente uma regressão significativa, mas também uma falta de ajuste não significativa. (TEÓFILO; FERREIRA, 2006).

Documentos relacionados