• Nenhum resultado encontrado

Conteúdo em cargas e/ou aditivos

I.3 Metodologias e técnicas

No presente trabalho foi feito um estudo comparativo de diferentes Relações Quantitativas Estrutura-Propriedade (QSPR) na modelação e previsão da performance do papel. Foram analisadas e comparadas as capacidades de previsão e de interpretação de modelos construídos com base em duas metodologias distintas: Regressões Lineares Multiparamétricas e Redes Neuronais Artificiais não Supervisionadas (Self-Organizing Maps).

I.3.1 Modelação e previsão de propriedades

A construção de modelos que têm por objectivo a descrição, interpretação e previsão de comportamentos é uma das abordagens na análise multivariada de dados.[27] Tal metodologia permite racionalizar fenómenos para os quais se dispõe de um largo conjunto de dados, por vezes dispersos, e de cuja análise per se não se retira informação relevante.

Os modelos de regressão são uma das vias mais usuais no estudo de fenómenos que relacionam uma variável dependente (Y) com uma ou um conjunto de n variáveis explicativas (Xi). Inserem-se no domínio das Relações Quantitativas Estrutura- Propriedade e dentro destas as técnicas de Regressão Linear Multiparamétrica e o recurso a Redes Neuronais Artificiais são duas das vias de maior sucesso para a racionalização e previsão de comportamentos, características ou propriedades.

Os métodos de classificação permitem a integração e análise de um grande número de variáveis em simultâneo para as quais não existe a priori qualquer relação de dependência. Estes métodos visam essencialmente o agrupamento de objectos (dados) em função da sua similaridade de comportamentos, características ou propriedades. As Redes de Kohonen (Self-Organinzing Maps) são uma das técnicas de maior sucesso neste campo.

O desenvolvimento de qualquer modelo clássico QSPR assenta nos seguintes postulados [28-30]:

(i) as propriedades descritoras são responsáveis pela propriedade observada;

(ii) os objectos (dados) similares têm propriedades similares;

(iii) o modelo QSPR estabelecido só se aplica a objectos pertencentes ao mesmo espaço dimensional.

A construção de modelos QSPR ou de classificação envolve 4 fases principais [31-34]:

1) Selecção e construção da matriz de dados

Nesta fase constrói-se a matriz de dados envolvendo os valores da propriedade em estudo (variável dependente, Yi) bem como o conjunto de descritores (variáveis

independentes, Xi) que influenciam a propriedade em estudo.

⎣ ⎢ ⎢ ⎢ ⎡ �1 �11 �21 �31 (… ) ��1 2 �12 �22 �32 (… ) ��2 �3 �13 �23 �33 (… ) ��3 (… ) (… ) (… ) (… ) (… ) (… ) �1� �2� �3� �4� (… ) ���⎦ ⎥ ⎥ ⎥ ⎤

2) Selecção e pré-tratamento das variáveis

Nesta fase avalia-se essencialmente a qualidade dos dados que constam da matriz.

Observa-se, normalmente através de análise gráfica (gráficos de dispersão ou de representação directa de Xi), se existem outliers – e, caso existam, eles são

removidos. Define-se outlier como a observação que não segue o mesmo comportamento de um conjunto de outras observações entre as quais se encontra inserida.

Nesta fase inicia-se também o estudo da existência de intercorrelações entre as variáveis independentes, uma vez que se pretende estabelecer relações Y= f (Xi) onde f

nesta fase que quando necessário se efectua a transformação de variáveis através de métodos de centralização ou normalização. No presente trabalho para que se pudessem usar os métodos de classificação das Redes Neuronais – SOM, as variáveis foram normalizadas [35] entre 0,1 e 0,9 de acordo com a equação 6, onde Xi é a variável

independente de partida e Z o resultante valor da variável normalizada:

� = 0,8 � ��− ����

��á�− ����+ 0,1

3) Desenvolvimento do modelo

A fase do desenvolvimento do modelo contém três procedimentos fundamentais:

(i) Selecção dos conjuntos de treino e de teste; (ii) Selecção dos descritores;

(iii) Aplicação de métodos estatístico-matemáticos para a construção do modelo final.

Existem várias técnicas para proceder à escolha de conjuntos de treino e de teste adequados. No presente trabalho foram aplicadas três: a selecção ao acaso, a selecção por observação e a selecção por valor de propriedade (Yi). No entanto, a

divisão dos elementos da matriz de dados em conjuntos de treino e de teste deve ser efectuada de modo a que sejam independentes entre si e ambos representativos de toda a gama de variação da matriz. Idealmente cada elemento do conjunto de teste deve conter na sua vizinhança espacial um elemento pertencente ao conjunto de treino. Usa- se o conjunto de treino apenas para o estabelecimento do modelo e reserva-se o conjunto de teste para avaliar a capacidade preditiva do modelo estabelecido.

Para a selecção dos descritores existem também diferentes métodos. O método de regressão progressiva passo a passo (forward stepwise regression) foi o escolhido no desenvolvimento deste estudo, e visa tal como os outros a selecção do conjunto dos descritores que melhor descrevem a propriedade que está a ser estudada.

Uma vez seleccionados os “melhores” descritores, inicia-se a aplicação criteriosa de métodos estatístico-matemáticos. Nas regressões lineares multiparamétricas usou-se a ANOVA (análise de variâncias) e o método dos mínimos

quadrados para a determinação de vários parâmetros estatísticos importantes e dos coeficientes de regressão, tendo esta análise sido aplicada apenas ao conjunto de treino.

4) Validação interna e externa do modelo obtido

Uma vez estabelecido um determinado modelo inicia-se a sua fase de validação, a qual se desenvolve em duas etapas: [36]

(i) validação interna (ii) validação externa

Na validação interna, avalia-se a robustez e a qualidade do modelo encontrado através de análise de resíduos e de avaliação de diferentes testes estatísticos.

No procedimento de análise gráfica de resíduos deve garantir-se que os resíduos são aleatórios e que se distribuem em torno do valor zero.

Seguidamente avaliam-se diferentes testes estatísticos onde se destacam: - Verificação de existência de outliers: devem ser retirados do conjunto os pontos cujos resíduos sejam superiores a duas vezes o desvio padrão do ajuste:

���− ��� > 2�

onde é o valor experimental da propriedade em estudo, �� o seu valor previsto pelo modelo e � o desvio padrão do ajuste.

- Coeficiente de determinação (R2) que mede a % da variabilidade da propriedade Y que é explicada pelos descritores Xi. Este parâmetro, que varia entre 0 e

1, deve ser elevado (idealmente > 0,9).

- Desvio padrão do ajuste (s), que é uma medida da qualidade do ajuste e reflecte as diferenças entre os valores experimentais e os valores “previstos”. Este parâmetro é tanto melhor quanto menor é o seu valor.

- Teste de Fisher-Snedecor (F), mede a significância do modelo para um determinado nível de confiança, normalmente > 95%.

- Teste t-Student (t), mede a significância dos coeficientes de regressão determinados para um dado intervalo de confiança, normalmente > 95%.

- Teste de validação cruzada, Q2LMO, (LMO – leave many out) que é traduzido pela expressão:

= − =       −       − − = treino i i i treino i i i LMO Y Y Y Y Q 1 2 1 2 ^ 2 1

onde Yi são os valores experimentais, �� os valores previstos e ��o valor médio de

todos os valores das propriedades constantes da matriz (o valor de Q2LMO deve ser superior a 0,6).

Uma vez terminada a validação interna e no caso de se verificarem todos os critérios anteriores, inicia-se a validação externa onde se procura aferir a capacidade de previsão do modelo.

Nesta fase, usam-se os coeficientes de regressão estimados para o conjunto de treino e os descritores Xi relativos aos elementos do conjunto de teste e são previstos

para estes os valores da propriedade em estudo. Estes valores são comparados com os seus homólogos experimentais e é efectuada simultaneamente uma verificação estatística que deve obedecer aos critérios seguintes:

• R2> 0,6 • 0,85 < m < 1,15 • 2 2 02 R R R − < 0,1 •

= − =       −       − − = teste i i i teste i i i LMO Y Y Y Y Q 1 2 1 2 ^ 2 1 > 0,5

onde Yi e �� têm o mesmo significado que anteriormente mas dizem respeito ao

conjunto de teste e ��é o valor médio dos elementos do conjunto de treino.

[equação 7]

[equação 8]

I.3.2 Relações lineares multiparamétricas (RLM)

Uma relação linear multiparamétrica (RLM) assume a seguinte forma: [37]

.... X a X a X a a Yi = 0 + 1 1 + 2 2 + 3 3 + [equação 10]

onde Yi representa a variável dependente e Xi são as variáveis independentes (ou explicativas), a0 é o termo independente (ordenada na origem) e ai os respectivos

coeficientes de regressão associados às variáveis independentes.

Os coeficientes ai podem ser determinados com recurso ao método dos

mínimos quadrados o qual tem subjacente um conjunto de assumpções que devem ser verificadas e garantidas: a amostra deve ser representativa da população para efeitos de previsão por inferência; as variáveis independentes assumem-se como isentas de erro; o erro associado à variável dependente é ele próprio entendido como uma variável aleatória com média nula; os resíduos são aleatórios seguindo uma distribuição normal com média nula e variância constante (homoscedasticidade). [37]

Uma relação linear multiparamétrica usada num contexto de QSPR assenta ela própria nas assumpções de aditividade, de independência e de causalidade: assim, num modelo RLM assume-se que as variáveis explicativas são aditivas e independentes entre si e que são, elas próprias, a causa do efeito observado na variável dependente. [38]

Documentos relacionados