• Nenhum resultado encontrado

CONFIABILIDADE DE REDES NEURAIS ARTIFICIAIS Quando os modelos neurais são empregados, é desejável que

4. INCERTEZA DA INFERÊNCIA EM MODELOS NEURAIS 1 INTRODUÇÃO

4.2. CONFIABILIDADE DE REDES NEURAIS ARTIFICIAIS Quando os modelos neurais são empregados, é desejável que

sejam estabelecidas formas para quantificar a incerteza associada às suas saídas. Nesse âmbito, o intervalo de confiança tem sido considerado como uma medida da incerteza, uma vez que corresponde a uma faixa de saída do modelo, onde o valor da grandeza possa realmente estar, com certa probabilidade (CHRYSSOLOURIS; LEE; RAMSEY, 1996).

Muitos trabalhos foram desenvolvidos nas últimas décadas, visando estimar intervalos de confiança (IC) para modelos neurais

(LEONARD; KRAMER; UNGAR, 1992, CHRYSSOLOURIS; LEE;

RAMSEY, 1996; HWANG; DIN, 1997; VEAUX et al, 1998). Como não

existe uma teoria global sobre o assunto, a análise focada na solução de problemas particulares tem sido a abordagem dominante (PENZ, 2011). Consequentemente, muitas das técnicas relacionadas são específicas das redes para as quais foram desenvolvidas e não são diretamente aplicáveis aos diversos tipos de arquiteturas, com diferentes topologias e conexões (OLIVEIRA; MONTINI; BERGMANN, 2007).

Algumas dessas publicações (CHRYSSOLOURIS; LEE; RAMSEY, 1996; HWANG; DIN, 1997; VEAUX et al, 1998) são citadas seguidamente, ainda hoje. Entretanto, no início desse milênio, Yang et al (2000) já apontavam para suas limitações. Segundo eles, nas propostas os autores assumiam condições que raramente seriam satisfeitas na prática, e elas só teriam validade quando: a quantidade de informações para o conjunto de treinamento fosse suficientemente grande (HWANG; DIN, 1997); os erros dos modelos fossem independentes e com distribuição normal e média nula (CHRYSSOLOURIS; LEE; RAMSEY, 1996); o treinamento convergisse sempre da mesma forma (VEAUX et al, 1998).

Na grande maioria das publicações disponíveis, a análise dos IC recai comumente sobre dois grupos: imprecisões dos dados de

treinamento; limitações intrínsecas à ferramenta neural

(PAPADOPOULOS; EDWARDS, MURRAY, 2000; HAYKIN, 2001).

Na visão dos autores supracitados, mesmo com a escolha de uma solução apropriada20 à complexidade do problema, dois aspectos ainda podem ser determinantes nas limitações da ferramenta neural: processo de otimização; incompletude do conjunto de treinamento. A compreensão dos seus efeitos, em separado, requer algumas considerações adicionais, visto que na prática são pouco dissociáveis.

Mesmo que os dados de treinamento sejam isentos de erros e representem bem o sistema sob mapeamento, não se pode garantir que o algoritmo de aprendizagem convirja para um ponto de mínimo global da função de erro. A natureza aleatória com que os parâmetros livres são estabelecidos e ajustados pode conduzir a resultados diferentes, para um mesmo conjunto de treinamento. O erro decorrente do processo de otimização é preponderantemente aleatório, como sugere a figura 13(a). Na imagem estão representadas respostas distintas de uma mesma RNA, que podem ser obtidas a cada processo de aprendizagem, em comparação com a função que descreve o sistema modelado.

Figura 13 ‒ Erro de otimização (a) e erro por incompletude do conjunto de treinamento (b).

Fonte: Autor.

De modo geral, dificilmente se conseguem amostras suficientes para representar de maneira completa a região de definição da rede, e a maneira como ela responderá à incompletude de seu domínio é incerta.

20 Nessa abordagem, considera-se que o modelo neural empregado seja adequado à

complexidade do problema e a exatidão requerida. Não é objetivo deste trabalho lidar eventuais parcelas sistemáticas de erro inseridas por modelos inapropriados.

gr an dez a d e int er esse gr an d ez a d e in te re sse Legenda Legenda

função do sistema função do sistema

RNA - treinamento 1 RNA

RNA - treinamento 2 treinamento

RNA - treinamento 3 uso

RNA - treinamento 4

domínio de definição

domínio de operação domínio de definiçãodomínio de operação

Dessa forma, mesmo que se atinja o mínimo global, não se pode assegurar que se tenha obtido a melhor solução. O erro associado é predominantemente sistemático, como se pode intuir da figura 13(b).

O conjunto de treinamento é tipicamente impreciso. Os erros podem ser atribuídos a diversas fontes, dentre elas aquelas provenientes das medições dos dados, necessárias para extraí-los dos sistemas físicos. Em um problema de aproximação, por exemplo, a memorização excessiva de dados ruidosos afasta consideravelmente a função modelada da aplicação real (HAYKIN, 2001; PAPADOPOULOS; EDWARDS, MURRAY, 2000; 2001).

As abordagens tipicamente empregadas para considerar esses dois aspectos – limitações do modelo neural e imprecisões dos dados de treinamento – são limitadas. Uma análise mais consistente, que pretenda estar alinhada aos preceitos metrológicos vigentes, deve considerar outros aspectos relevantes (CORAL, 2014; CORAL et al, 2015).

Dados de medição contêm parcelas sistemáticas21 e aleatórias de erro (ALBERTAZZI; SOUZA, 2008; BIPM, 2008a); porém, segundo Coral (2014) e Coral et al (2015), os métodos para caracterização do IC de RNA consideram exclusivamente a componente aleatória. As parcelas sistemáticas podem ser reduzidas a um mínimo aceitável, o que nem sempre é realizado. Nesses casos, seus efeitos também devem ser considerados na análise da incerteza das respostas das redes.

As características metrológicas dos sistemas de medição usados para obtenção dos dados do conjunto de treinamento podem não corresponder às daqueles empregados no uso das redes. Desse modo, uma avaliação mais criteriosa deve levar em conta a influência das incertezas de ambos os conjuntos de dados. Tal condição só foi identificada nas abordagens de Coral (2014) e Coral et al (2015).

A tabela 7 resume as fontes de erros que podem ser significativas no desenvolvimento e uso de uma RNA, conforme argumentações desta seção. A divisão sugerida para as fontes, entre dados de medições e etapa de aprendizagem, objetiva facilitar a identificação de estratégias capazes de considerar os erros decorrentes. Assim, a tabela 7 deverá ser útil para abalizar a capacidade dos métodos, apresentados nas seções seguintes (4.3 a 4.5), em expressar incertezas de modelos neurais.

É sempre válido destacar que essa abordagem é procedente, tão somente, quando o domínio de uso da rede estiver contido na região em que ela foi treinada (SILVA; SPATTI; FLAUZINO, 2010).

21 Considera-se que medições realizadas com esse objetivo estejam sempre livres de erros

Tabela 7 ‒ Fontes de erros que podem ser significativas no treinamento e uso de RNA.

erro aleatório erro sistemático nãocompensado dados de medições

treinamento da RNA

exemplos de entrada sim sim exemplos de saída sim sim uso da RNA

dados de entrada sim sim

aprendizagem

processo de otimização sim não incompletude do conjunto

de treinamento não sim

Fonte: Adaptada de Coral (2014).