• Nenhum resultado encontrado

CAPÍTULO 3. REDES NEURAIS ARTIFICIAIS

3.6. APLICAÇÕES DAS REDES NEURAIS: PONTOS FORTES E FRACOS

Associação de padrões, classificação de padrões, aproximação de funções, controle de sistemas dinâmicos (manipuladores mecânicos, processos industriais, controle de veículos), processamento de sinais (cancelamento de ruídos, reconhecimento de voz, e outros), sistemas de decisão (médicos, financeiros, e outros), compresão de imagens e outras diversas possibilidades que são descritas na literatura especializada, por exemplo, recuperação da informação (FERNEDA, 2006), estimação da temperatura interna de transformadores de distribuição imersos em óleo (FREITAS et al, 2002), etc.

Simões e Shaw (2007) apontam que seu ponto forte de aplicação está em: reconhecimento de padrões, reconhecimento de caracteres e formas, estimação de funções não lineares, controle de processos e previsões financeiras. No caso de controle de processos, na ausência de modelos matemáticos de processos, as redes neurais podem utilizar um histórico de dados coletados dos sinais dos sensores e medidores utilizados na planta de processo, para se construir modelos preditivos, modelos que podem predizer as reações do processo a novas condições. Nesste trabalho, são utilizados este tipo de modelos em estratégias de controle preditivo.

Entretanto, mencionam vários pontos fracos, entre eles salientamos os seguintes:

• “O tempo de treinamento das redes neurais artificiais não é previsível, podendo em alguns casos ser muito longo. O retreinamento “on line” em geral requerido para um sistema de autossintonia só pode ser aplicado para sistemas com dinâmica muito lenta”.

Em geral, o tempo de treinamento depende de vários fatores: a natureza dos dados, a natureza do problema de modelagem, a quantidade de padrões entrada/saída, a complexidade do modelo e o método de treinamento; portanto o tempo de treinamento pode ser muito variado. No entanto, o conhecimento desses fatores facilita fazer previsões qualitativas do tempo de treinamento.

No que se refere ao retreinamento “on line”, é necessário dados do processo obtidos em tempo real, e para a sua aplicação a necessidade do retreinamento “on line” para um sistema de dinâmica muito lenta, tendo em conta que as redes neurais treinadas ‘‘off line” por ter em seu vetor de treinamento um conjunto de dados de várias perturbações e maior número de dados consegue representar bem o perfil do processo, segundo Duarte (2004) essas redes tem uma maior “memória” do processo; e que a cada retreinamento “on line” se modificam os parâmetros da rede neural para uma utilidade mais específica com possíveis limitações nas condições do retreinamento (número de dados, número de iterações, critério de tolerância) e perda do histórico do processo. • “Uma vez que não se pode olhar para o sentido dos pesos e conexões de uma

rede neural, torna-se impossível de se interpretar as causas de um comportamento particular”.

Essa preocupação é importante porque na literatura é mencionado que o modelo de redes neurais artificiais é um modelo de caixa preta. No entanto, a informação que permite o ajuste entre entradas e saídas do modelo está contida nos pesos e bias da rede neural. Neste trabalho, é desenvolvido um método que contribui para a interpretação da informação causal contida nos pesos e bias do modelo de redes neurais e para a explicação dos comportamentos das variáveis.

3.7. CONCLUSÃO

Neste capítulo, a fundamentação teórica tem como objetivo construir um marco conceitual que oriente as tarefas de utilização das redes neurais na modelagem empírica e controle de processos nos seguintes capítulos do presente trabalho. Apresentam-se características das redes neurais, os tipos de rede: alimentada adiante ou feedforward e recorrente ou feedback; revisam-se regras e paradigmas de aprendizagem, a capacidade de generalização das redes, o algoritmo de treinamento por backpropagation, o papel dos neurônios escondidos,

A propriedade mais interessante das redes neurais é sua capacidade de processamento paralelo de informação para aprender e generalizar com base em exemplos, e através da adaptação dos pesos das conexões. Os neurônios das camadas ocultas têm um papel importante no processamento de informação, determinando a funcionalidade e desempenho das redes neurais em diversas tarefas.

3.9. REFERÊNCIAS BIBLIOGRÁFICAS

1. Ackley, D. H., Hinton, G. E., and Sejnowski, T. J. (1985). A learning algorithm for Boltzmann machines. Cognitive Science, 9, pp.147-169.

2. Atala, D.I.P. Fermentação Alcoólica com Alta Densidade Celular:

Modelagem Cinética, Convalidação de Parâmetros e Otimização do Proceso. Dissertação de Mestrado, Universidade Estadual de Campinas,

Brasil, 2000.

3. Assidjo, E., Yao B., Amane, D., Ado, G., Azzaro-Pantel, C. and Davin, A.

(2006). Industrial Brewery Modelling by Using Neural Network. Journal of

Applied Sciences, v. 6 (8), pp.1858-1862.

4. Assidjo, N.E. , Akaki, D., Yao, K.B., Eboi, T.Y. (2009). A Hybrid Neural Approach for Batch Fermentation Simulation. Australian Journal of basic and

Applied Sciences, v. 3 (4), pp. 3930-3936.

5. Barrera-Cortes, J. and Baruch, I. (2000). Recurrent Neural Network Model

of a Fed-Batch Saccharomyces Cerevisiae Fermentation Process.

Proceedings of the IEEE-INNS-ENNS International Joint Conference on Neural Networks (IJCNN'00), v. 4, pp. 589-594.

6. Bartlett, P.L.(1997). For valid generalization, the size of the weights is more important than the size of the network. Advances in Neural Information

Processing Systems, v. 9, pp. 134-140.

7. Bose, N.K. and Liang, P. (1996). Neural network fundamentals with

graphs, algorithms, and applications. Mcgraw-Hill, Inc. USA.

8. Braga, A. P., Carvalho A.C.P.L.F.; Ludemir, T. B. Redes Neurais Artificiais:

Teoria e Aplicações. Rio de Janeiro, Brasil: LTC - Livros Técnicos e

9. Brown, T.H., Kairiss, E.W., and Keenan, C.L. (1990) . Hebbian synapses: biophysical mechanisms and algorithms, Annual Review of Neuroscience, v. 13, pp. 475-511.

10. Costa, A. C., Atala, D. I. P., Maciel Filho, R. and Maugeri Filho, F. (2001). Factorial Design and Simulation for the Optimization and Determination of Control Structures for an Extractive Alcoholic Fermentation. Process

Biochemistry, v. 37(2), pp. 125-137.

11. Costa, A. C., Meleiro, L.A.C., Maciel Filho, R.(2002). Non-linear predictive control of an extractive alcoholic fermentation process. Process Biochemistry, v. 38 (5), pp. 743-750.

12. Cybenko, G. (1989). Approximation by Superpositions of a Sigmoidal Function. Mathematics of Control, Signals and Systems, v.2, pp. 303-314. 13. Demuth, H., Beale, M., Hagan, M. Neural Network Toolbox™ 6 User’s Guide.

The MathWorks, 2008. Disponível em:

< http://www.varpa.org/Docencia/Files/nnet.pdf>. Acesso em: 3 dezembro 2009.

14. Duarte, E.R. Estratégia de controle não linear baseada em redes neurais

artificiais com aprendizagem “On line”. Dissertação de Mestrado.

Universidade Estadual de Campinas. Brasil, 2004.

15. Duarte, E.R. Avaliação e desenvolvimento de algoritmos de controle

aplicado a um processo extrativo de fermentação alcoólica contínua.

Tese de Doutorado. Universidade Estadual de Campinas. Brasil, 2007.

16. Ferneda, E. Redes Neurais e sua aplicação em sistemas de recuperação de informação. Ci. Inf., Brasilia, v. 35 (1), pp. 25-30, 2006.

17. Freitas, A.A.C; Silva, I.N.; Souza, A.N. (2002). Aplicação de redes neurais na estimação da temperatura interna de transformadores de distribuição imersos em óleo. Sba. Controle & Antomação, v. 13. (3). Disponível em:

<http://www.scielo.br/scielo.php?pid=S0103-17592002000300005&script=sci_arttext>.

Acesso em: 20 janeiro 2009.

18. Galland C. and Hinton G.E. (1989) Deterministic Boltzmann Learning in

Networks with Asymmetric Connectivity. University of Toronto.

Department of Computer Science Technical Report. CRG-TR-89-6.

19. Gomes, G.S.S., e Ludermir, T.B. (2008). Redes neurais artificiais com funções de ativação complemento log-log e probit para aproximar funções na presença de observações extremas. Learning and Nonlinear Models. Revista

20. Guarnieri, S., Piazza, F., and Uncini, A. (1999). Multilayer Feedforward Networks with Adaptive Spline Activation Function. IEEE Transactions on

Neural Networks, v. 10 (3). pp. 672-683.

21. Harada, L.H.P. (2001). Modelagem hibrido neuronal aplicada a processos

fermentativos. Dissertação de Mestrado. Universidade Estadual de

Campinas. Brasil, 2001.

22. Hassoun, M. Fundamentals of artificial neural networks. Massachusetts Institute of Technology, USA, 1995.

23. Haykin, S. (2007). Redes neurais. Princípios e prática. 2a Edição. ARTMED EDITORA S.A., São Paulo, Brasil.

24. Hebb, D.O. The Organization of Behavior: a neuropsychological theory. New York: Jhon Wiley & Sons, 1949.

25. Hermundstad, A.M., Brown, K.S., Bassett, D.S. and Carlson, J.M. (2011). Learning, Memory, and the Role of Neural Network Architecture. PLoS

Comput Biol., v. 7(6): e1002063. doi:10.1371/journal.pcbi.1002063.

26. Hinton, G. Supervised learning in supervised neural networks. In: Robert, A.W. and Keil, F.C. (Eds). The MIT Encyclopedia of the Cognitive Sciences. 2001. MIT Press. Cambridge, Massachusetts, London, England. pp. 814-816. 27. Hornik, K., Sinchcombe, M., and White, M.(1989). Multilayer Feedforward are

Universal Approximators. Neural Networks, v. 2. pp. 359-366.

28. Hornik, K. (1991). Approximation capabilities of multilayer feedforward networks. Neural Networks, v. 4(2), pp. 251–257.

29. Hush, D. and Horne, B. (1993). Progress in supervised neural networks. IEEE

Signal Processing Magazine, v. 10(1), pp. 8-39.

30. Kolen, J.F. and Kremer, S. (2001). Dynamical Recurrent Networks. In: J.f. Kolen and S. C. Kremer (Eds). A field guide to dynamical recurrent neural network. Institute of Electrical and Electronics Engineers, Inc. IEE. Press .New York, NY. USA. 2001

31. Leshno, M., Lin, V.Y., Pinkus, A., Schocken, S.,(1993). Multilayer feedforward networks with a nonpolynomial activation function can approximate any function. Neural Networks, v. 6 (6), pp. 861-867

32. McCulloch, W.S. and Pitts, W. (1943). A Logical Calculus of the ideas Immanent in Nervous Activity. Bulletin of Mathematical Biophysics, v. 5, pp.115-133.

33. Mandic, D.P. and Chambers, J.A. Recurrent Neural Networks for

Prediction. Chichester, England: Jhon Wiley & Sons, Inc., 2001.

34. Mantovaneli, I.C.C. Modelagem hibrido neuronal de um processo de

fermentação alcoólica. Dissertação de Mestrado. Universidade Estadual de

Campinas. Brasil, 2005.

35. Meleiro, L. A. C, Costa, A.C., Maciel Filho, R. (2005). Non-Linear Multivariable Predictive Control of an Alcoholic Fermentation Process Using Functional Link Networks. Brazilian Archives of Biology and Technology, v.48, pp. 7-18.

36. Menon, A., Mehrotra, K., Mohan, C. K., and Ranka, S. (1996). Characterization of a class of sigmoid functions with applications to neural networks. Neural Networks, 9(5), pp. 819-835.

37.

Menon, A., Mehrotra, K., Mohan, C. K., and Ranka, S

. Elements of

artificial neural networks. Cambridge: The MIT Press, 2000.

38. Narayan, S. and Tagliarini, G. An analysis of underfitting in MLP networks.

Proceedings of the 2005 IEEE International Joint Conference on Neural

Networks (IJCNN), Montreal, Canada, v. 2, pp. 984-988.

39. Nascimento C.L. e Yoneyama, T. (2008). Inteligência artificial em controle

e automação. Blücher-FAPESP. São Paulo, Brasil.

40. Pramanik, K., 2004. Use of artificial neural networks for prediction of cell mass and ethanol concentration in batch fermentation using saccharomyces cerevisiae yeast. Institution of Engineers (India) Journal-CH.Vol. 85, pp. 31- 35.

41. Rivera, E.C., Mantovaneli, I., Costa, A.C. and M.R. Filho, ( 2006). Hybrid modeling for continuous production of bioethanol. Computer Aided Chemical

Engineering. , v. 21, pp. 613-618.

42. Rumelhart, D. E., Hinton, G. E., and Williams, R. J. (1986b)

Learning internal representations by error propagation.

In: Rumelhart, D. E. and McClelland, J. L., (Eds.). Parallel Distributed Processing: Explorations in the Microstructure of Cognition. Volume 1: Foundations, MIT Press, Cambridge, MA. pp. 318-362.

43. Rumelhart, D.E., Hinton, G.E. and Williams, R.J. (1986a). Learning representations by back propagating errors. Nature, v. 323, pp. 533-536. 44. Sharma, S.K., Chandra, P. (2010). Constructive neural networks: a review.

Intenational Journal of Engineering Science and Technology. 2(12), pp. 7847-

45. Silva, F.L.H. Modelagem, simulação e controle de fermentação alcoólica

contínua extrativa. Campinas. Tese Doutorado. Faculdade de Engenharia

de Alimentos, Universidade Estadual de Campinas, Brasil, 1998.

46. Simões, M.G. e Shaw, I.S. Controle e modelagem fuzzy. 2a edição. São Paulo, Brasil: Blücher - FAPESP, 2007.

47. Tetko, I.V., Livingstone, D.J., Luik, A.I. (1995). Neural Network Studies.1. Comparison of overfitting and overtraining. Journal of Chemical Information

and Computer Science, v. 35(5), pp. 826-833.

48. Vecci, L., Piazza, F. and Uncini, A. (1998). Learning and approximation capabilities of adaptive spline activation function neural networks. Neural

Networks, v. 11(2), pp. 259–270.

49. Weigend, A. (1994). On overfitting and the effective number of hidden

units. In Proceedings of the 1993 Connectionist Models Summer School.

Michael Mozer, M., Smolensky, P., Touretsky, D., Elman, J., Weigend, A. (editors). pp. 335-342. Edit. Lawrence Erlbaum Associates, Inc., Broadway, Hillsdale, New Jersey. USA.

50. Yegnanarayana, B. Artificial Neural Networks. New Delhi, India: Prentice Hall of India, 2006.

51. Zhang, M. (2008). A data simulation system using CSINC polynomial

higher order neural networks.

Disponível em: < http://en.scientificcommons.org/43474694>. Acesso em: 15 outubro 2011.

Documentos relacionados