• Nenhum resultado encontrado

das RNAs Criadas

Capítulo 8 RNA de Diagnóstico

8.2. RNA com Variáveis Significativas

Realizada a análise estatística (os resultados podem ser consultados no capítulo 5) foram selecionadas algumas variáveis como sendo diferenciadoras para a doença de Parkinson e controlos. Foram usados testes não paramétricos, pois os dados não seguem uma distribuição normal. Os testes usados foram o Mann-Whitney e o Wilcoxon e, nem a idade do sujeito, nem o seu sexo se verificaram ser variáveis significativas, não tendo, por isso, sido usadas. As variáveis cinéticas significativas foram listadas na tabela 3 e os dados para treino e teste foram organizados com apenas as 33 variáveis cinéticas significativas e pela ordem representada na mesma tabela.

Selecionados os dados, foram realizados novos testes, semelhantes aos anteriormente apresentados, com RNAs de 1 e 2 saídas, tal como foi descrito no início do presente capítulo, antes da análise estatística. Contudo, analogamente às RNAs já descritas, aqui também não foram obtidos resultados suficientemente bons que mereçam ser apresentados no que diz respeito a RNAs com apenas 1 saída. Assim, mais uma vez, tais resultados não serão aqui apresentados.

114

8.2.1. Treino com Algoritmo BP

Tal como para os anteriores treinos, foi realizado um teste para encontrar o melhor valor do gradiente, por forma a obter a melhor performance de teste possível. Aqui, o melhor valor foi 10-11, pelo que foi esse ao qual se recorreu para realizar o treino.

Figura 64 – Seleção do gradiente para o treino com BP.

Na tabela seguinte estão expostos os números de verificações de treino que obtiveram melhores resultados, por cada função de erro. É com base nos treinos realizados com estes parâmetros que são expostos os resultados.

Tabela 5 – Parâmetros de paragem de treino para o algoritmo BP por função de erro.

Gradiente Número de Verificações de Erro MSE 10-11 3 MAE 0 SAE 0 SSE 0

Finalizado o treino, a melhor performance obtida foi superior à obtida antes da análise estatística com o mesmo algoritmo de treino, 90%. Tal valor foi alcançado com o treino com função de performance MSE (como pode ser observado na figura 65 com a cor preta), e com 26 neurónios na primeira camada interna e 20 na segunda.

No que diz respeito às restantes funções de erro (MAE, SAE e SSE), os seus melhores resultados foram ambos de 85% e foram obtidos em vários padrões de neurónios.

115

Figura 65 – Performance com treino BP (apenas foram registadas as performances superiores a 70%).

Tendo sido MSE a função de performance com melhores resultados, será de seguida avaliado o efeito da alteração do número de neurónios na eficácia das RNAs.

Figura 66 – Efeito do aumento de neurónios na primeira camada interna com treino BP.

Para uma RNA de apenas uma camada interna, os seus valores de performance são os descritos na figura anterior, onde é possível observar uma pequena descida de performance ao longo do aumento do número de neurónios.

116

Quando é inserida a segunda camada interna (figura 67), com 5 neurónios nessa camada, observa-se um aumento de performance com o aumento da primeira camada interna até aos 60 neurónios, começando a descer depois desse ponto. Com 10 ou 30 neurónios na segunda camada, verifica-se uma performance constantemente inferior em todos os valores da primeira camada. Já com 20 neurónios na segunda camada interna, ocorre uma grande subida de performance para 30 neurónios na primeira camada (pico de performance), entrando numa grande queda com o restante aumento da primeira camada interna. Quando existe uma segunda camada interna de 40 neurónios, verifica-se uma subida na eficácia da RNA até aos 40 elementos na primeira camada, mantendo-se aproximadamente constante até aos 60, baixando, contudo, com as primeiras camadas maiores. Finalizando, com 50 neurónios na última camada interna, confirma-se uma descida de eficácia com o aumento da primeira camada interna.

Figura 67 – Efeito do aumento de neurónios na segunda camada interna com treino BP e MSE.

8.2.2. Treino com Algoritmo SCG

No que diz respeito ao treino com SCG, o gradiente mínimo para o treino foi definido em 10-3, tendo sido este o valor que obteve uma melhor performance (figura 68). Quanto ao outro parâmetro de treino, verificações de performance, foram listados na tabela 7 os valores que permitiram obter melhores resultados para cada função de cálculo do erro.

117

Tabela 6 – Parâmetros de paragem de treino para o algoritmo SCG por função de erro.

Gradiente Número de Verificações de Erro MSE 10-3 3 MAE 1 SAE 2 SSE 1

Figura 68 – Seleção do gradiente para o treino com SCG.

Quanto aos resultados deste algoritmo, representados na figura 69, verifica-se um aumento de eficácia máxima por parte da função de performance MSE (preto), em comparação com a RNA com todas as variáveis, conseguindo 95% de performance. Esta percentagem de acertos foi conseguida com 71 neurónios na primeira camada interna e 12 na segunda.

As restantes três funções de erro não foram além de 85% de eficácia, tendo obtido este valor em vários padrões de neurónios para cada função.

Analisando o efeito do aumento do número de elementos de processamento numa RNA de apenas uma camada interna (figura 70), treinada com a função de erro MSE (função que obteve melhor performance), verifica-se que a performance vai aumentando simultaneamente com o aumento do número de neurónios, atingindo o seu máximo aos 80 e 90 elementos.

118

Figura 69 – Performance com treino SCG (apenas foram registadas as performances superiores a 70%).

Figura 70 – Efeito do aumento de neurónios na primeira camada interna com treino SCG e MSE.

Uma avaliação diferente pode ser feita quando é introduzida uma segunda camada interna (figura 71). Com 5 neurónios na segunda camada, observa-se uma subida de eficácia da RNA quando aumentada a primeira camada até aos 50 neurónios, caindo a partir desse número. Para uma segunda camada de 10 ou 30 neurónios, ocorre uma rápida subida de performance com poucos neurónios na primeira camada interna, mantendo-se aproximadamente, com altos

119

valores de eficácia, para grandes primeiras camadas internas. Já com 20, 40 ou 50 neurónios na segunda camada, observa-se uma estagnação inicial do valore de performance, tendo uma grande subida, quando a primeira camada interna se torna suficientemente grande.

Figura 71 – Efeito do aumento de neurónios na segunda camada interna com treino SCG e MSE.

8.2.3. Treino com Algoritmo LM

Por fim, cumpre referir que o último teste realizado foi com o algoritmo LM. Quanto ao gradiente usado para o treino, ilustrado na figura 72, foi de 10-4, ligeiramente inferior ao valor a que se recorreu antes da análise estatística.

Já quanto ao outro parâmetro de treino, verificações de erro, encontram-se listados na tabela seguinte os valores necessários para se conseguir alcançar a melhor performance possível, por cada função de erro usada.

Tabela 7 – Parâmetros de paragem de treino para o algoritmo LM por função de erro.

Gradiente Número de Verificações de Erro MSE

10-4 3

120

Figura 72 – Seleção do gradiente para o treino com LM.

Quanto aos resultados, que podem ser observados na figura 73, foi obtida a performance máxima de 85% para a função MSE (preto). Este valor foi obtido quando a RNA teve 12 neurónios na primeira camada e 4 na segunda.

Já em relação à outra função de performance, SSE (azul), o seu resultado máximo foi ligeiramente inferior, 80%, em dois padrões de neurónios distintos, 14-5 e 15-8, no que diz respeito ao número de neurónios na primeira-segunda camada interna.

121

Figura 74 – Efeito do aumento de neurónios em ambas as camadas, com treino LM e MSE.

Note-se ainda que quando a RNA só tem uma camada interna, a performance aumenta à medida que aumenta a mesma. Por outro lado, quando a RNA tem uma segunda camada, a performance cai com o aumento da primeira camada.