• Nenhum resultado encontrado

Durante os experimentos, a rede provou-se limitada em operação para determinadas situações. A grande maioria destas limitações é proporcionada por uma baixa diversificação de imagens durante a criação do dataset. Desta forma, ambientes com deveras poluição visual, exemplificadas pelas Figuras 30 e 31, não possuem uma taxa de acerto confiável.

Figura 30: Ambiente com muita poluição visual. Exemplo 1.

Fonte: Autoria própria.

Figura 31: Ambiente com muita poluição visual. Exemplo 2.

A rede ainda demonstrou não ter aprendido de forma concreta a diferença entre chão e parede. Isto é revertido em resultados incoerentes para ambientes em que se utilizem azulejos comumente encontrados no chão, na parede. Este é o caso de muitos banheiros e cozinhas em casas tradicionais. As Figuras 32 e 33 exibem estas situações. O motivo novamente para esta inconsistência preditiva é que a rede é capaz de aprender sobre as texturas do ambiente e assim, ela é capaz de determinar se uma pessoa está de fato caída ou apenas deitada em um sofá analisando a textura do ambiente em que a pessoa repousa. Devido à baixa quantidade de imagens utilizadas durante a aprendizagem, a rede aprendeu que uma pessoa em lugares com estes padrões de piso encontra-se em queda, e, portanto, o sistema tornou-se inutilizável para estes casos. É possível corrigir este problema adicionando-se mais dados ao conjunto de imagens de treinamento inicial bem como uma diminuição dos ângulos de rotação utilizados na técnica de data augmentation.

Figura 32: Ambiente de pisos do chão iguais aos da parede. Banheiro.

Figura 33: Ambiente de pisos do chão iguais aos da parede. Cozinha.

Fonte: Autoria própria.

Existe ainda um terceiro tipo de ambiente considerado crítico, sendo este, locais com muita poluição sonora. Lugares muito barulhentos forçam o sistema à uma operação de tempo pleno, dado que o sensor de ruído estará o tempo todo ativado. Isto implica diretamente no microprocessador utilizado, pois demanda muito processamento. Este efeito pode causar um mau funcionamento ou mesmo uma queima dos componentes provenientes de um superaquecimento. Logo, não é aconselhável sua operação nestas condições.

Por fim, o sistema não está projetado para identificar corretamente entre queda e não queda quando duas ou mais pessoas encontram-se em frente à câmera. Nesta situação, quando há uma pessoa levantada e outra pessoa caída, por exemplo, o sistema tende a dividir a taxa de confiabilidade pela metade, tornando-se inviável uma predição realmente precisa.

5 CONCLUSÕES

Conclui-se que através dos resultados obtidos, os objetivos específicos na identificação de quedas foram bem-sucedidos, atingindo uma média de 82% na taxa de acerto final para ambientes gerais. Muito embora a rede desenvolvida possua uma boa taxa de acerto, ela possui suas limitações como os abordados na seção dos resultados. Grande parte do sucesso obtido neste projeto dá-se ao uso da arquitetura Inception V3 escolhida, bem como o uso da técnica de transfer learning, o que possibilitou, apesar da pouca quantidade de imagens para o dataset, uma boa perícia.

Na medicina, é comum atribuir valores diferentes para um falso positivo e um positivo falso. Isto porque, como forma de exemplificar, é considerado melhor ser diagnosticado com uma doença, sem tê-la, do que possuir propriamente uma doença, e ser diagnosticado como normal. Com base nisto, é possível adaptar o threshold (limite) da rede desenvolvida para que ela detecte com mais frequências quedas, mesmo este sendo um resultado incorreto, do que deixar que um resultado propriamente de queda seja interpretado como não queda.

Com o avançar da tecnologia, espera-se que os processamentos sejam feitos de forma mais rápida, o que possibilitaria não apenas mais velocidade durante a predição como também o uso de arquiteturas mais robustas, impactando diretamente no resultado da predição. É possível ainda melhorar os resultados obtidos neste trabalho aumentando consideravelmente a quantidade de imagens usadas durante o treinamento e a diminuição das rotações usadas na técnica de data augmentation, visto que a posição a qual a pessoa se encontra no ambiente influencia diretamente o resultado durante a predição.

Pode-se inclusive fazer um adendo quanto à questão da privacidade. Como forma de evitar que uma pessoa mal-intencionada use a câmera do dispositivo para espionagem, as imagens obtidas são apenas armazenadas em memória cache e processadas. É ainda um sistema fechado, não conectado à internet. Nota-se, porém, não estar completamente imune a invasões, sendo assim esta considerada uma desvantagem.

Por fim, são deixadas como sugestões de trabalho futuro, processamentos individuais das pessoas encontradas na foto para que, quando dois ou mais indivíduos estejam ao alcance da câmera, não interfira no resultado preditivo, ou ainda a utilização de reconhecimento facial para tratamento exclusivo da pessoa alvo. Cita-se ainda a utilização da técnica deep clustering, visando desenvolver uma rede capaz de identificar não somente a queda através da imagem, mas

também pelo som, diminuindo assim a chance de se cometer um erro. Esta técnica permite identificar um ruído de fundo de um ruído de queda. Em última análise, sugere-se ainda a integração deste projeto desenvolvido com um aplicativo para celular, ou mesmo uma central de ambulância, para responder aos casos em que o dispositivo detecte uma queda.

REFERÊNCIAS

ABADI, M.; BARHAM, P.; CHEN, J.; CHEN, Z.; DAVIS, A.; DEAN, J.; DEVIN, M.; GHEMAWAT, S.; IRVING, G.; ISARD, M. et al. Tensorflow: A system for large-scale machine learning. In: OSDI. 2016. v. 16, p. 265–283. Disponível em:

<https://www.usenix.org/system/files/conference/osdi16/osdi16-abadi.pdf>. Acesso em: 11 de março de 2018.

AGHDAM, H. H.; HERAVI, E. J. Guide to convolutional neural networks: a practical

application to traffic-sign detection and classification. Springer, 2017.

BILBAO, I.; BILBAO, J. Overfitting problem and the over-training in the era of data: Particularly for artificial neural networks. IEEE, p. 173–177, 2017. Disponível em: <https://ieeexplore.ieee.org/document/8260032>. Acesso em: 20 de abril de 2019.

BUDUMA, N.; LOCASCIO, N. Fundamentals of deep learning: designing next-generation

machine intelligence algorithms. O’Reilly Media, Inc., 2017.

CHEN, L.; HAN, R.; XING, S.; RU, S. Research on clothing image classification by convolutional neural networks. In: IEEE. 2018 11th International Congress on Image and

Signal Processing, BioMedical Engineering and Informatics (CISP-BMEI). 2018. p. 1–5.

Disponível em: <https://ieeexplore.ieee.org/document/8633249>. Acesso em: 16 de março de 2019.

DIAZ, A.; PRADO, M.; ROA, L.; REINA-TOSINA, J.; SANCHEZ, G. Preliminary evaluation of a full-time falling monitor for the elderly. In: IEEE. Engineering in Medicine and Biology

Society, 2004. IEMBS’04. 26th Annual International Conference of the IEEE. 2004. v. 1, p.

2180–2183. Disponível em: <https://ieeexplore.ieee.org/abstract/document/1403637>. Acesso em: 4 de novembro de 2018.

DING, J.; LI, X.; GUDIVADA, V. N. Augmentation and evaluation of training data for deep learning. IEEE, p. 2603–2611, 2017. Disponível em: <https://ieeexplore.ieee.org/abstract/document/8258220/>. Acesso em: 20 de abril de 2018.

DUCHI, J.; HAZAN, E.; SINGER, Y. Adaptive subgradient methods for online learning and stochastic optimization. Journal of Machine Learning Research, v. 12, n. Jul, p. 2121–2159, 2011. Disponível em: <http://www.jmlr.org/papers/v12/duchi11a.html>. Acesso em: 10 de novembro de 2018.

FARAHBAKHSH, E.; KOZEGAR, E.; SORYANI, M. Farahbakhsh, ebrahim and kozegar, ehsan and soryani, mohsen. IEEE, p. 265–270, 2017. Disponível em: <https://ieeexplore.ieee.org/document/8342362/>. Acesso em: 09 de abril de 2018.

FENNER, R. IA da Alibaba supera humanos em teste de leitura de Stanford. 2018. Disponível em: <https://economia.uol.com.br/noticias/bloomberg/2018/01/15/ia-da-alibaba- supera-humanos-em-teste-de-leitura-de-stanford.html>. Acesso em: 18 de novembro de 2018.

FERREIRA, A. dos S. Redes Neurais Convolucionais Profundas na Detecção de Plantas

Daninhas em Lavoura de Soja. 2017. março de 2017. 70 p. Dissertação (Ciências da

Computação) — Universidade Federal de Mato Grosso do Sul, Campo Grande, 2017. Disponível em: <http://repositorio.ufms.br:8080/jspui/handle/123456789/3101>. Acesso em: 28 de abril de 2018.

FU, Z.; CULURCIELLO, E.; LICHTSTEINER, P.; DELBRUCK, T. Fall detection using an address-event temporal contrast vision sensor. In: IEEE. Circuits and Systems, 2008.

ISCAS 2008. IEEE International Symposium on. 2008. p. 424–427. Disponível em:

<https://ieeexplore.ieee.org/document/4541445/>. Acesso em: 18 de abril de 2018.

GHASEMIAN, A.; HOSSEINMARDI, H.; CLAUSET, A. Evaluating overfit and underfit in models of network community structure. IEEE Transactions on Knowledge and Data

Engineering, IEEE, 2019. Disponível em: <https://ieeexplore.ieee.org/document/8692626>.

Acesso em: 20 de abril de 2019.

GUYON, I.; GUNN, S.; NIKRAVESH, M.; ZADEH, L. A. Feature extraction: foundations

and applications. Springer, 2008.

HAYKIN, S. S. Neural networks and learning machines. Pearson Upper Saddle River, 2009. HEATON, J. Artificial Intelligence for Humans, Volume 3: Deep Learning and Neural

Networks; Heaton Research. 2015.

HERTZ, J.; KROGH, A.; PALMER, R. G. Introduction to the theory of neural computation. Addison-Wesley/Addison Wesley Longman, 1991.

IYODA, E. M. et al. Inteligência computacional no projeto automático de redes neurais híbridas e redes neurofuzzy heterogêneas. [sn], 2000. Disponível em: <http://repositorio.unicamp.br/handle/REPOSIP/259071>. Acesso em: 29 de outubro de 2018. KETKAR, N. et al. Deep Learning with Python. Springer, 2017.

KHAN, S.; RAHMANI, H.; SHAH, S. A. A.; BENNAMOUN, M. A guide to convolutional neural networks for computer vision. Synthesis Lectures on Computer

Vision, Morgan & Claypool Publishers, v. 8, n. 1, p. 1–207, 2018. Disponível em: <https://www.morganclaypool.com/doi/abs/10.2200/S00822ED1V01Y201712COV015>. Acesso em: 24 de abril de 2018.

KHAN, T.; CHATTOPADHYAY, M. K. Smart health monitoring system. IEEE, p. 1–6, 2017. Disponível em: <https://ieeexplore.ieee.org/document/8279142/>. Acesso em: 15 de maio de 2018.

KIA, S.; COGHILL, G. A mapping neural network using unsupervised and supervised training. IEEE, v. 2, p. 587–590, 1991. Disponível em: <https://ieeexplore.ieee.org/abstract/document/155400>. Acesso em: 28 de outubro de 2018.

KIM, P. MATLAB Deep Learning: With Machine Learning, Neural Networks and

KINGMA, D. P.; BA, J. Adam: A method for stochastic optimization. arXiv preprint

arXiv:1412.6980, 2014. Disponível em: <https://arxiv.org/abs/1412.6980>. Acesso em: 10

de novembro de 2018.

LECUN, Y.; BENGIO, Y.; HINTON, G. Deep learning. nature, Nature Publishing Group, v. 521, n. 7553, p. 436, 2015. Disponível em: <https://www.nature.com/articles/nature14539>. Acesso em: 27 de março de 2018.

LECUN, Y.; BOTTOU, L.; BENGIO, Y.; HAFFNER, P. Gradient-based learning applied to document recognition. Proceedings of the IEEE, IEEE, v. 86, n. 11, p. 2278–2324, 1998. Disponível em: <https://ieeexplore.ieee.org/abstract/document/726791/>. Acesso em: 10 de novembro de 2018.

MANASWI, N. K. Deep Learning with Applications Using Python: Chatbots and Face,

Object, and Speech Recognition With TensorFlow and Keras. Apress, 2018.

MCCLURE, N. TensorFlow machine learning cookbook. Packt Publishing, 2017. ISBN: 9781786462169.

MCCULLOCH, W. S.; PITTS, W. A logical calculus of the ideas immanent in nervous activity.

The bulletin of mathematical biophysics, Springer, v. 5, n. 4, p. 115–133, 1943. Disponível em:

<https://link.springer.com/article/10.1007/BF02478259>. Acesso em: 29 de março de 2018. MISKELLY, F. G. Assistive technology in elderly care. Age and ageing,

Oxford University Press, v. 30, n. 6, p. 455–458, 2001. Disponível em: <https://academic.oup.com/ageing/article/30/6/455/39799>. Acesso em: 18 de abril de 2018.

PATTANAYAK, S.; JOHN, S. Pro Deep Learning with TensorFlow. Springer, 2017.

PULLI, K.; BAKSHEEV, A.; KORNYAKOV, K.; ERUHIMOV, V. Real-time computer vision with opencv. Communications of the ACM, ACM, v. 55, n. 6, p. 61–69, 2012.

QUADROS, T. de; LAZZARETTI, A. E.; SCHNEIDER, F. K. A

movement decomposition and machine learning-based fall detection system using wrist wearable device. IEEE Sensors Journal, 2018. Disponível em: <https://ieeexplore.ieee.org/stamp/stamp.jsp?tp=arnumber=8345625>. Acesso em: 24 de abril de 2018.

RAMSUNDAR, B.; ZADEH, R. B. TensorFlow for Deep Learning: From Linear Regression

to Reinforcement Learning. "O’Reilly Media, Inc.", 2018.

ROSS, D. J. Bird call recognition with artificial neural networks, support vector machines, and kernel density estimation. 2006. Disponível em: <https://mspace.lib.umanitoba.ca/bitstream/handle/1993/20399/Ross_Bird_call.pdf?sequence= 1>. Acesso em: 07 de julho de 2018.

SARIGÜL, M.; AVCI, M. Performance comparison of different momentum techniques on deep reinforcement learning. Journal of Information and Telecommunication, Taylor & Francis, v. 2, n. 2, p. 205–216, 2018. Disponível em:

<https://www.tandfonline.com/doi/abs/10.1080/24751839.2018.1440453>. Acesso em: 29 de outubro de 2018.

SEWAK, M.; KARIM, M. R.; PUJARI, P. Practical Convolutional Neural Networks:

Implement advanced deep learning models using Python. Packt Publishing Ltd, 2018.

SHAO, L.; ZHU, F.; LI, X. Transfer learning for visual categorization: A survey. IEEE

transactions on neural networks and learning systems, IEEE, v. 26, n. 5, p. 1019–1034,

2015. Disponível em: <https://ieeexplore.ieee.org/document/6847217>. Acesso em: 20 de abril de 2019.

SHIJIE, J.; PING, W.; PEIYI, J.; SIPING, H. Research on data augmentation for image classification based on convolution neural networks. IEEE, 2017.

SHIN, H.-C.; ROTH, H. R.; GAO, M.; LU, L.; XU, Z.; NOGUES, I.; YAO, J.; MOLLURA, D.; SUMMERS, R. M. Deep convolutional neural networks for computer- aided detection: Cnn architectures, dataset characteristics and transfer learning. IEEE

transactions on medical imaging, IEEE, v. 35, n. 5, p. 1285–1298, 2016. Disponível em:

<https://ieeexplore.ieee.org/abstract/document/7404017/>. Acesso em: 29 de março de 2018. SHUKLA, N. Machine learning with TensorFlow. Manning, 2018.

SIXSMITH, A.; JOHNSON, N. A smart sensor to detect the falls of the elderly.

IEEE Pervasive computing, IEEE, v. 3, n. 2, p. 42–47, 2004. Disponível em:

<https://ieeexplore.ieee.org/abstract/document/1316817/>. Acesso em: 15 de abril de 2018. SKANSI, S. Introduction to Deep Learning: From Logical Calculus to Artificial Intelligence. Springer, 2018.

STONE, E. E.; SKUBIC, M. Fall detection in homes of older adults using the microsoft kinect.

IEEE J. Biomedical and Health Informatics, v. 19, n. 1, p. 290–301, 2015. Disponível em:

<https://ieeexplore.ieee.org/document/6774430>. Acesso em: 02 de setembro de 2018.

SZEGEDY, C.; VANHOUCKE, V.; IOFFE, S.; SHLENS, J.; WOJNA, Z. Rethinking the inception architecture for computer vision. Proceedings of the IEEE conference on

computer vision and pattern recognition, n. 1, p. 2818–2826, 2016. Disponível em:

<https://arxiv.org/abs/1512.00567>. Acesso em: 20 de abril de 2019.

TIELEMAN, T.; HINTON, G. Lecture 6.5-rmsprop: Divide the gradient by a running average of its recent magnitude. COURSERA: Neural networks for machine learning, v. 4, n. 2, p. 26– 31, 2012. Disponível em: <https://pt.coursera.org/lecture/neural-networks/rmsprop-divide-the- gradient-by-a-running-average-of-its-recent-magnitude-YQHki>. Acesso em: 10 de novembro de 2018.

WANG, H.; ZHANG, D.; WANG, Y.; MA, J.; WANG, Y.; LI, S. Rt-fall: A real-time and contactless fall detection system with commodity wifi devices.

IEEE Trans. Mob. Comput., v. 16, n. 2, p. 511–526, 2017. Disponível em:

<https://ieeexplore.ieee.org/iel7/7755/4358975/07458198.pdf>. Acesso em: 27 de outubro de 2018.

WANG, J.; PEREZ, L. The effectiveness of data augmentation in image classification using deep learning. 2017. Disponível em: <http://cs231n.stanford.edu/reports/2017/pdfs/300.pdf>. Acesso em: 26 de abril de 2018.

WANG, Y.; WU, K.; NI, L. M. Wifall: Device-free fall detection by wireless networks. IEEE

Transactions on Mobile Computing, IEEE, v. 16, n. 2, p. 581–594, 2017. Disponível em:

<https://ieeexplore.ieee.org/abstract/document/7458186>. Acesso em: 02 de setembro de 2018. XIA, X.; XU, C.; NAN, B. Inception-v3 for flower classification. 2017 2nd International

Conference on Image, Vision and Computing, IEEE, p. 783–787, 2017. Disponível em:

<https://ieeexplore.ieee.org/document/7984661>. Acesso em: 20 de abril de 2019.

ZACCONE, G.; KARIM, M. R.; MENSHAWY, A. Deep Learning with TensorFlow. 2017. ZIGEL, Y.; LITVAK, D.; GANNOT, I. A method for automatic fall detection of elderly people using floor vibrations and sound—proof of concept on human mimicking doll falls. IEEE

Transactions on Biomedical Engineering, IEEE, v. 56, n. 12, p. 2858–2867, 2009. Disponível

em: <https://ieeexplore.ieee.org/abstract/document/5223652>. Acesso em: 22 de setembro de 2018.

Documentos relacionados