• Nenhum resultado encontrado

Foi feito um programa com o Arduino que ao receber o comando enviado pelo programa em Python através da comunicação Bluetooth, executa um movimento. O Arduino foi ligado a uma ponte H que é usada para controlar motores de corrente contínua.

CAPÍTULO 4. SISTEMA DESENVOLVIDO 35

O programa verifica o comando enviado pelo Bluetooth, e a cada comando específico é necessário ativar as portas do microcontrolador de forma que controle o sentido e quais motores serão ativados.

Os dois motores (motor A e B) se ligam a portas específicas do Arduino para serem ativados. Para controlar o sentido da rotação dos motores é necessário inverter os polos da alimentação do motor, o que é feito pela ponte H através de quatro contatos que se fecham, invertendo o caminho que a corrente elétrica percorre. Portanto, para controlar o sentido do motor foram necessárias outras duas portas para cada motor, nomeadas como A1 e A2 para o motor A, e B1 e B2 para o motor B. A Figura 4.8 mostra a ligação da ponte H e seu funcionamento.

Figura 4.8: a)Esquemático dos motores MA e MB. b)Funcionamento da ponte quando acionada a porta 1 ou a 2.

Sendo assim, é necessário ativar A1 e B1 quando o comando é para que o protótipo avance, ou seja, movimente para a frente, e A2 e B2 para o comando que o protótipo retrocede, ou seja, movimento para trás. Para o caso de uma curva, o protótipo foi projetado que a cadeira pudesse apenas girar ligando apenas um dos motores, e após isso a cadeira avançasse ou retrocedesse. A Figura 4.3 já mostrada exemplifica o movimento da cadeira. Ajustando o ângulo para onde o usuário desejar ir, é necessário apenas seguir em frente. O foco está em testar os quatro movimentos feitos e a dificuldade para controlá-los. A Figura 4.9 mostra um fluxograma do programa feito para o Arduino. O fluxograma também mostra as portas acionadas para cada um dos movimentos.

CAPÍTULO 4. SISTEMA DESENVOLVIDO 36

Capítulo 5

Metodologia

O principal objetivo do trabalho é o desenvolvimento do sistema para que seja possível o controle do protótipo por meio da EEG. Como parte do caminho para chegar até o controle do sistema desenvolvido, é possível dizer que cada parte do sistema faz o papel de uma parte da BCI. São eles:

• O capacete Emotiv Epoc é responsavel pela aquisição dos sinais.

• O software Mental Command faz o papel do pré-processamento e do classificador. • O programa em Python identifica a classificação do software e transforma em co-

mandos para enviar pelo Bluetooth.

• O módulo Bluetooth tem por função apenas a comunicação para levar os comandos para o microcontrolador.

• O microcontrolador é a aplicação, responsável por controlar o protótipo da cadeira de rodas.

A Figura 5.1 mostra a sequência das partes citadas acima.

Uma prova de conceito utiliza um modelo prático para comprovar o conceito teórico. Portanto para provar o conceito de que é possível controlar a cadeira de rodas através de um sistema que utiliza BCI foi construído o modelo prático como mostrado acima.

Após completo o modelo prático, foi realizado testes para verificar a resposta do sis- tema através de imagens e dois testes com voluntários para ver a possibilidade e a facili- dade do controle.

Para um dos treinamentos, cada movimento é associado a sentimentos bons (como andar de bicicleta ou tocar algum instrumento) e ruins (como comidas ou experiências que o voluntário não goste). Para o outro treinamento cada movimento é associado ao movimento das mãos.

CAPÍTULO 5. METODOLOGIA 38

Capítulo 6

Resultados e Discussões

6.1

Movimentos da cadeira

Para testar como a cadeira responde a cada um dos movimentos foram usadas imagens pré-feitas para alimentar o programa em Python, com movimentos para todos os lados e com diferentes intensidades para mover a cadeira. O protótipo se moveu conforme as imagens passavam, como era esperado do sistema.

Para outro teste mecânico, foi feita uma sequência de imagens para testar o protótipo por um trajeto dentro do próprio Laboratório de Sistemas Embarcados. As imagens estavam atribuídas a comandos do computador para que pudesse ser controlado pelo teclado. A Figura 6.1 mostra uma foto da movimentação do protótipo durante o teste.

O programa em Python feito respondeu bem a todos os testes. Os comandos acionados pelo Arduino funcionaram bem de modo que foi possível controlar a cadeira para fazer a trajetória pelo laboratório. A trajetória foi feita sem dificuldades, validando a parte do Python e Arduino do sistema.

6.2

Dificuldade do controle

Obter um resultado pela classificação não foi possível por ser usado o Emotiv Xa- vier Control Panel como sistema de classificação. Portanto, observou-se a dificuldade de controlar o objeto do software. Foi feito um treinamento para controlar um movimento apenas. Caso fosse possível controlar, aumentaria mais um movimento a cada etapa.

Duas pessoas se voluntariaram para participar do treinamento e tentar controlar o protótipo. O voluntário associado aos sentimentos teve um bom resultado quando foi trabalhado apenas um movimento. Quando foi passado a dois, não foi possível controlar totalmente a cadeira. Foram treinados o movimento para frente e para a direita, e pediu- se que o voluntário fizesse um percurso em torno do laboratório, porém não foi possível fazer o caminho inteiro pela dificuldade encontrada em controlar dos dois movimentos.

CAPÍTULO 6. RESULTADOS E DISCUSSÕES 40

Figura 6.1: Foto sequencial do protótipo no teste do trajeto.

O segundo voluntário teve um bom resultado ao controlar com a imaginação do movi- mento das mãos, porém foi um teste diferente onde ele devia apenas girar a cadeira para a direita ou para a esquerda. Foi conseguido o controle até dois movimentos, pois para um terceiro movimento teria de ter o movimento de outro membro.

Os resultados eram totalmente práticos, e nos dois casos, foi possível somente controlar até 2 movimentos. A dificuldade aumenta muito a cada movimento que é adicionado, pois é preciso ter um sinal claramente diferente de outro para classificar.

Não foi possível realizar muitos testes para melhorar o controle dos voluntários, pois tivemos problemas com o capacete.

6.3

Sistema em Geral

É possível controlar o protótipo da cadeira de rodas através da aplicação Mental Com- mands. Porém, é necessário muito treinamento para que o usuário consiga dominar o uso da aplicação. Tendo o domínio do uso da aplicação, o sistema Python-Arduino faz com sucesso o papel de classificar o movimento do objeto virtual realizado e acionar os motores da cadeira.

É uma alternativa para a motivação apresentada no trabalho, pois propõe um sis- tema que pode ser controlado apenas pela atividade cerebral. A utilização do protótipo

CAPÍTULO 6. RESULTADOS E DISCUSSÕES 41

demonstra e simula o uso do sistema em uma cadeira real e propõe uma forma para a locomoção para o usuário com dificuldades motoras.

Os custos mais altos do sistema são o valor do Emotiv Epoc que está em torno de U$ 300, além do valor do laptop. Porém, o laptop trabalha como um computador ou laptop que o usuário pode já possuir. Os custos do circuito da ponte H, motores e do Arduino estão abaixo de R$ 150,00. Contudo, a mudança para uma cadeira de rodas elevaria o preço do sistema final.

O trabalho foi planejado de modo que o sistema não utilizasse estímulos visuais para evitar necessitar de monitores para controlar o protótipo, ou mesmo para o caso do con- trole de uma cadeira de rodas. Os estímulos visuais dependem do foco no monitor e isto poderia atrapalhar para controlar livremente a cadeira. E diferente de outros sistemas, utilizando a aplicação Mental Commands é possível treinar o usuário de modos diferentes como o caso de sensações, ou tentando utilizar a imagética motora. Isto torna o treina- mento quanto ao padrão mais flexível e possibilidade da preferência de como controlar por parte do usuário.

O sistema em geral demonstra um protótipo para um sistema com uma cadeira de rodas e que pode se tornar um possível produto. O produto pode ser melhor trabalhado e testado com diferentes possibilidades para obter um custo reduzido e com software e hardware aberto.

Capítulo 7

Conclusões

Um sistema utilizando BCI é de grande importância para pessoas que de algum modo perderam os movimentos do corpo ou membros. Portanto, o desenvolvimento feito aqui, embora não feito extatamente em uma cadeira de rodas, demonstra que é possível desen- volver hardwares e veículos de locomoção que podem ser usadas pelas pessoas que sofrem com tal limitação.

O desenvolvimento de uma BCI depende de muitos conhecimentos como neurologia, eletrônica, programação, circuitos microcontrolados e eletroencefalografia. Foi feito um estudo em muitos trabalhos e artigos e foi possível ter uma idéia do desenvolvimento de cada parte do sistema.

Houve dificuldades para ter acesso aos dados da atividade cerebral do Emotiv Epoc, pois era necessário ter o kit de desenvolvimento, o SDK (Software Development Kit ) Research Edition. Infelizmente não foi possível adquirir o kit e desenvolver um sistema de classificação.

No entanto, é possível utilizar o Emotiv Xavier Control Panel como um sistema de classificação e treino para um usuário utilizar o sistema. Foi preciso fazer o programa em Python para detectar a classificação do software através da imagem do movimento do objeto virtual e se comunicar com o microcontrolador.

A comunicação entre Python e microcontrolador feita por Bluetooth oferece liberdade para o protótipo rodar sem estar ligado fisicamente por meio de cabos. O microcontrolador Arduino se tornou uma alternativa para receber os dados do módulo Bluetooth usado e o circuito com uma ponte H para controlar a direção em que o carrinho deveria percorrer;

O trabalho passou por grandes dificuldades como atraso na entrega do Emotiv Epoc, a falta de acesso aos dados, dificuldades com o hardware e corrosão dos sensores pela solução salina, entre outros. Porém, os testes com o sistema montado com o protótipo, o programa Emotiv Xavier Control Panel e a programação em Python e Arduino, mostram que o sistema mecânico funciona.

CAPÍTULO 7. CONCLUSÕES 43

O controle de uma BCI depende de muito treinamento, então não foi possível treinar tempo suficiente para o controle de quatro movimentos. Além da dificuldade de aprender a controlar, houve problemas com o capacete, o que prejudicou os testes com os voluntários. Portanto, para que seja possível controlar a cadeira, seria preciso dominar os movi- mentos do objeto através do capacete. Caso a pessoa consiga controlar o objeto virtual do software Emotiv Xavier Control Panel, ela seria capaz de controlar a cadeira.

O objetivos do trabalho é ter uma BCI, visando o EEG como entrada e a movimentação da cadeira como saída. Tivemos sucesso em criar um sistema em que fosse possível comunicar a entrada de dados do capacete através do Emotiv Xavier Control Panel até a comunicação entre o Python e o Arduino. Portanto é possível movimentar a cadeira através deste, sendo necessário somente o treinamento do usuário e um possível domínio da aplicação Mental Commands para controlar a cadeira de rodas adequadamente.

7.1

Trabalhos Futuros

Este projeto foi um trabalho pioneiro nesta linha de pesquisa na FT, e será ainda trabalhado por outros alunos. Possui potencial para trabalhos futuros e se torna uma nova área que pode ser aproveitada dentro do Laboratório de Sistemas Embarcados. Para os trabalhos futuros podem ser desenvolvido sistemas que utilizam a interface de uma forma mais completa. Trabalhos que podem ser feitos são:

• Testes com voluntários usando o protótipo deste projeto, com o objetivo de conseguir o controle dos quatro movimentos.

• Desenvolvimento de um capacete com custos mais baixos e o processamento do sinal obtido.

• Desenvolvimento de um sistema que utiliza aprendizado de máquina para extração de características e classificação, como o caso do SVM.

• Desenvolvimento de um sistema focando a aplicação para uma cadeira de rodas, com treinamento para os quatro movimentos. Caso utilizado um padrão para imagética motora, criar uma metodologia para auxílio ao treino como no trabalho (HWANG; KWON; IM, 2009).

Referências Bibliográficas

ATKINSON, R. L. e. a. Introdução à Psicologia de Hilgard. 13. ed. [S.l.]: Artmed Editora S.A., 2002. 792 p. ISBN 85-7307-913-4.

BARBOSA, A. F. Um sistema inteligente de classificação de sinais de EEG para Interface Cérebro-Computador. [S.l.], 2012.

DIEZ, P. F. e. a. Commanding a robotic wheelchair with a high-frequency steady-state visual evoked potential based brain-computer interface. In: Medical Engineering & Physics Volume 35. ELSEVIER, 2012. p. 1155–1164. Disponível em: <http://www.sciencedirect.com/science/article/pii/S1350453312003335>.

DKHIL, M. B. e. a. A new approach for a safe car assistance system. In: 4a IEEE International Conference of Adcanced Logistics and Transport. IEEE, 2015. p. 217–222. ISBN 978-1-4799-8400-8. Disponível em: <http://ieeexplore.ieee.org/document/ 7136627/>.

FARIA, T. J. F. d. S. Interfaces Cérebro-Computador – Utilização do Emotiv EPOC para controlar software lúdico. [S.l.], 2014.

GARCIA, A. P. e. a. EEG control of an industrial robot manipulator. In: 4th IEEE International Conference of Cognitve Infocommunications. IEEE, 2013. p. 39–44. ISBN 978-1-4799-1546-0. Disponível em: <http://ieeexplore.ieee.org/document/6719280/>. GENTILETTI, G. G. e. a. Command of Simulated wheelchair on a virtual

environment using a brain-computer interface. In: IRBM Volume 30. ELSEVIER, 2009. p. 218–285. Disponível em: <http://www.sciencedirect.com/science/article/pii/ S1959031809001122>.

GEORGE, K. e. a. EEG control of an industrial robot manipulator. In: International Instrumentation and Measurement Technology Conference. IEEE, 2014. p. 1326–1328. ISBN 978-1-4673-6386-0. Disponível em: <http://ieeexplore.ieee.org/document/ 6860961/>.

HWANG, H.-J.; KWON, K.; IM, C.-H. Neurofeedback-based motor imagery training for brain-computer interface (BCI). In: Journal of Neuroscience Methods. ELSEVIER, 2009. p. 150–156. Disponível em: <http://www.sciencedirect.com/science/article/pii/ S0165027009000454>.

JANG, W.; LEE, S.; LEE, D. Development BCI for Individuals with Severely

Disability using EMOTIV EEG Headset and Robot. In: International Winter Workshop on. South Korea: IEEE, 2014. p. 1–3. ISBN 978-1-4799-2588-9. Disponível em:

<http://ieeexplore.ieee.org/document/6860961/>. 44

REFERÊNCIAS BIBLIOGRÁFICAS 45

KAWALA-JANIK, A. e. a. Game Controller Based On Biomedical Signals. In: 4a IEEE International Conference of Adcanced Logistics and Transport. IEEE, 2015. p. 934–939. ISBN 978-1-4799-8701-6. Disponível em: <http://ieeexplore.ieee.org/ document/7284003/>.

LEEB, R. e. a. Self-Paced (Asynchronous) BCI Control of a Wheelchair in Virtual Environments: A Case Study with a Tetraplegic. In: Computational Intelligence and Neuroscience. [S.l.]: Hindawi Publishing Corporation, 2007.

LOPES, A. C.; PIRES, G.; NUNES, U. Assisted navigation for a brain-actuated intelligent wheelchair. In: Robotics and Autonomous Systems Volume 61. ELSEVIER, 2012. p. 245–258. Disponível em: <http://www.sciencedirect.com/science/article/pii/ S0921889012002072>.

MILLÁN, J. d. R. e. a. Asynchronous Non-Invasive Brain-Actuated Control of an Intelligent Whellchair. In: Annual International Conference of the IEEE Engineering in Medicine and Biology Society. IEEE, 2009. p. 3361–3364. ISBN 978-1-4244-3296-7. Disponível em: <http://ieeexplore.ieee.org/document/5332828/>.

NAGHADA, S. C. Desenvolvimento de um Sistema Eletrônico para Controle de um Protótipo de uma Cadeira de Rodas. Limeira, 2015.

REBSAMEN, B. e. a. Controlling a Wheelchair Indoors Using Thought. In: IEEE Intelligent Systems Volume 22. IEEE, 2007. p. 18–24. ISBN 1541-1672. Disponível em: <http://ieeexplore.ieee.org/document/4136854/>.

SAMADI, H.; DALIRI, M. R. Solve the Rubik’s Cube with Robot Based on Non-Invasive Brains Computer Interfaces. IEEE, p. 1–5, feb 2014. Disponível em: <http://ieeexplore.ieee.org/document/6802558/>.

SILVA, W. M. d. Revisão e comparação de classificadores em um experimento utilizando interface cérebro-computador. Campo Mourão, 2016.

VIDAL, J. J. Toward direct brain-computer communication. In: Annual Review of Biophysics and bioengineering. [S.l.: s.n.], 1973. p. 157–180.

WOLPAW, J. R. e. a. Brain-computer interfaces for communication and control. In: Annual International Conference of the IEEE Engineering in Medicine and Biology Society. ELSEVIER, 2002. p. 767–791. Disponível em: <http: //www.sciencedirect.com/science/article/pii/S1388245702000573>.

Documentos relacionados