• Nenhum resultado encontrado

4 RESULTADOS E DISCUSSÃO

4.2 RESULTADOS DAS REDES NEURAIS

Para esta seção, os valores das melhores redes neurais podem ser analisados visualmente no Apêndice F, onde também podem ser encontrados os parity plots para cada propriedade PVT. Os resultados foram comparados com os obtidos através das correlações, com parâmetros reestimados visando a minimização da função soma dos desvios quadrados.

Com valores compreendidos de RAAE entre 15-18%, as redes neurais foram exitosas em se aproximar à melhor correlação reajustada para a pressão de bolha. A melhor dentre elas esteve a menos de um ponto percentual no comparativo do RAAE. O melhor algoritmo de treinamento foi o BFGS, com a obtenção de apenas 4 neurônios na camada oculta. Coincidentemente, são 4 as variáveis independentes relacionadas à pressão de bolha. A melhor rede foi, portanto, uma MLP do tipo 4-4-1, conseguida no 72º ciclo de treinamento. Os três algoritmos de treinamento das redes neurais foram melhores que quatro dos cinco algoritmos de ajuste da correlação. NO Quadro 4.7 a seguir demonstra essa análise.

Quadro 4.7 – Comparativo redes neurais versus correlações reajustadas pela soma dos desvios quadrados: pressão de bolha Abordagem Neurônios Ocultos Algoritmo Treinamento Tempo

Treinamento RAAE Ciclo nº Reestimação Parâmetros Rosenbrock 67ms 14,753

Redes Neurais 4 BFGS 1s 32ms 15,292 72 Redes Neurais 22 BFGS 49s 64ms 15,350 49 Redes Neurais 6 BFGS 25s 71ms 15,967 93 Redes Neurais 4 Conjugate Gradient 12s 53ms 16,427 166 Redes Neurais 4 Gradient Descent 14m 43s 42ms 18,328 7.999 Reestimação Parâmetros Quasi-Newton 66ms 20,832 Reestimação Parâmetros Levenberg-Marquardt 60ms 20,846 Reestimação Parâmetros Simplex 1s 86ms 20,849 Reestimação Parâmetros Hooke-Jeeves 1s 05ms 28,853

Fonte: Elaborado pelo autor

A amplitude de valores de RAAE da viscosidade de óleo morto entre as cinco redes modeladas foi de 32-328%, com o melhor método de treinamento igual ao da propriedade PVT anterior: o BGFS. A melhor rede em termos de RAAE esteve a apenas três pontos percentuais do melhor RAAE das correlações reajustadas. Na totalidade, as redes neurais são melhores do que as correlações reajustadas. A segunda melhor rede foi obtida com apenas 4 neurônios ocultos, no 20º ciclo, em apenas 25s e 80ms. Esta é a melhor rede, porque, como observado, mais neurônios não geram resultados significativamente melhores, e estes resultariam em um modelo mais rígido e podem acarretar sobreajuste. O Quadro 4.8 a seguir mostra os resultados discutidos.

Quadro 4.8 – Comparativo redes neurais versus correlações reajustadas pela soma dos desvios quadrados: viscosidade de óleo morto

Abordagem Neurônios Ocultos

Algoritmo Treinamento

Tempo

Treinamento RAAE Ciclo nº Reestimação Parâmetros Rosenbrock 79ms 29,050

Redes Neurais 22 BFGS 48s 35ms 32,235 32

Redes Neurais 4 BFGS 25s 80ms 34,919 20

Redes Neurais 30 BFGS 73ms 66,307 57

Redes Neurais 30 Gradient Descent 1m 59s 55ms 91,024 2411 Reestimação Parâmetros Simplex 1s 84ms 219,158 Reestimação Parâmetros Quasi-Newton 50ms 219,164 Reestimação Parâmetros Levenberg-Marquardt 60ms 219,463 Reestimação Parâmetros Hooke-Jeeves 1s 6ms 225,445 Redes Neurais 30 Conjugate Gradient 80ms 328,512 51

Fonte: Elaborado pelo autor

Para a razão de solubilidade, todo o intervalo de RAAE’s obtidos varia de 25% até 35%, simbolizando que, para essa propriedade, nenhuma abordagem encontrou algum limite significativo para ter insucesso durante a execução da construção dos modelos. Ao analisar o parity plot desta grandeza, percebemos que só existe apenas um outlier significativo, o que leva a ponderar se na exclusão deste, o desempenho de todas as abordagens pudesse melhorar. É interessante notar que as três melhores redes puderam ser caracterizadas em 16, 12 e 22 ciclos, de onde se deduz que a rede consegue aprender rapidamente. O número de neurônios ocultos também foi baixo, em 14, 16 e 4, respectivamente. Novamente a rede com 4 neurônios é a mais indicada, pelos motivos já mencionados. O Quadro 4.9 a seguir resume essa explicação:

Quadro 4.9 – Comparativo redes neurais versus correlações reajustadas pela soma dos desvios quadrados: razão de solubilidade Abordagem Neurônios Ocultos Algoritmo Treinamento Tempo

Treinamento RAAE Ciclo nº Reestimação Parâmetros Rosenbrock 73ms 25,177

Redes Neurais 14 BFGS 27s 44ms 29,773 16

Redes Neurais 16 BFGS 29s 46ms 29,987 12

Redes Neurais 4 BFGS 1s 12ms 31,878 22

Reestimação Parâmetros Hooke-Jeeves 20s 01ms 32,232 Reestimação Parâmetros Levenberg-Marquardt 87ms 33,113 Reestimação Parâmetros Quasi-Newton 1s 19ms 33,114 Reestimação Parâmetros Simplex 3s 48ms 33,114 Redes Neurais 4 Conjugate Gradient 60ms 34,483 13

Redes Neurais 4 Gradient Descent 5s 76ms 35,245 647

Fonte: Elaborado pelo autor

Sem dúvida alguma, numericamente as redes neurais foram destaque na modelagem da compressibilidade isotérmica. Com RAAE’s entre 9% até 12%, as redes superaram qualquer RAAE entre os obtidos pelas correlações reajustadas, que foram todos acima de 21%. Isso mostra que os algoritmos de estimação não linear aplicados às correlações não foram capazes de alcançar um ótimo global. Embora as duas primeiras redes de 24 neurônios tenham valores desejáveis de RAAE, será definida a melhor rede como sendo aquela de 4 neurônios modelada pelo Método do Gradiente Conjugado. Esta última rede foi encontrada no 70º ciclo de modelagem. As redes neurais foram melhores em todos os 5 algoritmos de treinamento. O Quadro 4.10 ilustra este resultado.

Quadro 4.10 – Comparativo redes neurais versus correlações reajustadas pela soma dos desvios quadrados: compressibilidade isotérmica

Abordagem Neurônios Ocultos

Algoritmo Treinamento

Tempo

Treinamento RAAE Ciclo nº Redes Neurais 24 Conjugate Gradient 42s 72ms 9,830 99 Redes Neurais 24 Conjugate Gradient 31s 60ms 10,130 105 Redes Neurais 4 Conjugate Gradient 60ms 10,700 70 Redes Neurais 4 Gradient Descent 1m 51s 98ms 11,920 6497

Redes Neurais 4 BFGS 61ms 12,030 35

Reestimação Parâmetros Levenberg-Marquardt 80ms 21,790 Reestimação Parâmetros Hooke-Jeeves 3s 27ms 21,790 Reestimação Parâmetros Simplex 56s 79ms 21,813 Reestimação Parâmetros Rosenbrock 11s 06ms 22,067 Reestimação Parâmetros Quasi-Newton 1s 39ms 22,082

Fonte: Elaborado pelo autor

A melhor rede neural para a viscosidade de óleo insaturado obteve um RAAE de 34,7%, demasiadamente grande quando se compara ao melhor método de treinamento das correlações reajustadas, que foi de 12,92%. Nenhuma das 5 redes teve êxito na capacidade preditiva quanto se esperava. O Quadro 4.11 mostra esse resultado. Isso significa que, ao contrário do que ocorre para as demais propriedades, devido à sua maior complexidade numérica, a viscosidade de óleo insaturado deve requerer a inserção de um número maior de camadas internas para que possa ser bem modelada por meio de redes neurais. Infelizmente,

esta funcionalidade não está disponível na versão do Statistica usada neste trabalho. No Apêndice G encontram-se os pesos para as redes neurais melhores colocadas para cada uma das cinco propriedades.

Quadro 4.11 – Comparativo redes neurais versus correlações reajustadas pela soma dos desvios quadrados: viscosidade de óleo insaturado

Abordagem Neurônios Ocultos

Algoritmo Treinamento

Tempo

Treinamento RAAE Ciclo nº Reestimação Parâmetros Levenberg-Marquardt 60ss 12,918 Reestimação Parâmetros Simplex 1s 13ss 12,931 Reestimação Parâmetros Quasi-Newton 1s 40ss 13,448 Redes Neurais 4 Conjugate Gradient 1s 77ss 34,700 108 Redes Neurais 14 Conjugate Gradient 2m 10s 49ss 64,814 26 Redes Neurais 28 Conjugate Gradient 3m 4s 19ss 69,656 27

Redes Neurais 4 BFGS 1s 12ss 72,120 47

Reestimação Parâmetros Rosenbrock 79ss 77,498 Reestimação Parâmetros Hooke-Jeeves 1s 32ss 130,716 Redes Neurais 4 Gradient Descent 3m 2s 44ss 289,620 1748

Documentos relacionados