• Nenhum resultado encontrado

Capítulo 7 Conclusões e Trabalho Futuro

7.2 Trabalho Futuro

O primeiro aspeto a melhorar, no protótipo desenvolvido, tem a ver com as técnicas de coarticulação. A existência de validações repetidas para a mesma pose, poderia ser parcialmente resolvida com a aplicação das regras de construção de palavras da língua portuguesa, que filtrariam um grande número delas. Pensamos, no entanto, que o melhor caminho será a utilização de técnicas de data mining probabilísticas, onde os classificadores atribuem um valor de previsão para cada letra, sendo as poses classificadas como sendo a letra com o maior valor de previsão. Poderíamos instituir um valor limiar abaixo do qual a pose não seria reconhecida como letra do alfabeto. Isso permitiria filtrar todas as poses que correspondessem a transições entre letras que seriam classificadas como não letras. A técnica de coarticulação n_iguais revelou ser limitada, uma vez que classifica sempre qualquer pose como sendo uma letra, independentemente de ser realmente semelhante a ela. Por exemplo, o IB1 devolve sempre a letra correspondente ao padrão vizinho mais próximo, independentemente de poder estar muito distante da letra em questão (a ser executada). De qualquer forma, estas técnicas poderiam não ser suficientes e teriam que ser investigadas e estudadas juntamente com outras técnicas.

Um segundo aspeto a melhorar seria uma exploração de novas características que poderiam ser mais eficazes para o reconhecimento e classificação corretos das poses estáticas, complementando as 11 características existentes, seja com informação vinda apenas da profundidade do Kinect, ou até mesmo com as imagens capturadas a nível de câmara RGB (adicionando outro tipo de características). No caso das imagens capturadas teriam que se adicionar outro tipo de algoritmos de reconhecimento de imagem e fazer a sua combinação com os classificadores já utilizados.

Uma outra forma de melhorar o reconhecimento do alfabeto em LGP poderia ser adicionando o reconhecimento do esqueleto da mão, conseguindo detetar e identificar os dedos e a posição relativa das mãos. Para a LGP existem muitas outras nuances a considerar. No caso particular das palavras (simbólicas, icónicas e arbitrárias) teria que ser implementado um reconhecimento de gestos dinâmicos (movimentos), bem como algumas formas de interpretação e gravação dos mesmos, que poderia ter em conta as posições relativas do esqueleto do utilizador em diversas frames seguidas durante alguns segundos. Para isso teria de se fazer uma base de dados dinâmica com todos os gestos constituintes da LGP para que pudessem ser reconhecidos. No entanto, a LGP também considera as expressões faciais, movimento dos ombros e corpo, e alguns sons. O reconhecimento de todos estes aspetos deve ser tido em conta, no entanto, exigiria

recursos de equipamento e velocidade de processamento, ainda não disponíveis. Alguns destes aspetos podem ser reconhecidos fazendo uso do esqueleto humano já desenvolvido para o Kinect. Note que o próprio dispositivo Kinect se encontra, ainda, em fase de melhoramentos, sendo que, com um dispositivo mais avançado se conseguiria uma melhor deteção dos dedos, e todos os movimentos e expressões bem como sons utilizados em LGP. No entanto, também este reconhecimento de gestos dinâmicos, apenas com referências do esqueleto, seria insuficiente e teria de ser complementado. Para fazer este tipo de reconhecimento seria necessário recorrer, por exemplo, à triangulação de três Kinect’s de forma a poder identificar todos os componentes da LGP associando algoritmos de profundidade, reconhecimento de gestos, imagens ou vídeos, e som.

Outra melhoria possível a este protótipo seria o facto de conseguir detetar o “silêncio” de um utilizador ou uma “pausa” entre palavras, sem necessidade de utilizar interativamente o espaço que integra o protótipo. De notar que, o facto de um utilizador se encontrar estático em frente ao Kinect, não significa necessariamente que seja um "silêncio” ou uma “pausa”.

A ideia de complementar a aplicação de reconhecimento de LGP com uma aplicação que faça o inverso, isto é, que traduza a língua portuguesa escrita para a LGP, utilizando, por exemplo, um avatar, também seria importante, permitindo a comunicação bilateral.

Sendo a LGP uma língua bastante complexa e com um léxico de mais de cinco mil palavras, e uma vez que, mesmo para este modelo estático, o computador se revela lento em relação ao desempenho de um humano, para fazer o reconhecimento de gestos em movimento, seriam necessárias máquinas com capacidade de processamento suficiente para o tratamento de toda a informação em tempo real.

REFERÊNCIAS BIBLIOGRÁFICAS 87

Referências Bibliográficas

1. Ami – The Chemist’s Amanuensis. Brian Brooks, Adam Thorn, Matthew Smith, Peter Matthews, Shaoming Chen, Ben O’Steen, Sam Adams, Joe Townsend and Peter Murray-Rust. s.l. : University of Cambridge.

2. A new instrumented approach for translating American Sign Language into sound and text. Hernandez-Rebollar, J., Kyriakopoulos, N., & Lindeman, R. s.l. : Sixth IEEE International Conference on Automatic Face and Gesture Recognition, 2004, pp. 547-552.

3. Visual Tracking of Articulated Objects : an Application to the Human Hand. Técnico, I. S. (s.d.). 2005.

4. Ensino da Língua Gestual Assistido por Personagens 3D Virtuais. Deusdado, L. D. 2002.

5. Spelling It Out : Real – Time ASL Fingerspelling Recogni-tion. Pugeault, N., & Bowden, R. s.l. : The Hand, 2011.

6. Description and Recognition Methods for Sign Language Based on Gesture Components. Sagawa, H., & Ohki, M. 1997, pp. 97-104.

7. Portuguese Sign Language Recognition Via Computer Vision and Depth Sensor. Rui Almeida, Miguel Dias. 2012.

8. CopyCat: A Corpus for Verifying American Sign Language During Game Play by Deaf Children. Helene Brashear, Zahoor Zafrulla, Thad Starner, Harley

Hamilton, Peter Presti, Seungyon Lee. Valleta, Malta : s.n., 2010, 4th Workshop on the Representation and Processing of Sign Languages: Corpora and Sign Language Technologies, pp. 27-32.

9. Hand Gesture Recognition With Body Sensor Networks. King, R., Lo, B. P., Darzi, A., & Yang, G.-z. (s.d.). s.l. : Computer.

11. Hand gesture recognition using a neural network shape fitting technique. Stergiopoulou, E., & Papamarkos, N. 2009, Engineering Applications of Artificial Intelligence, pp. 1141-1158.

12. Facial Feature Tracking and Expression Recognition for Sign Language. I. Ari, A. Uyar, L.Akarun. s.l. : IEEE, 2008, 2008 23rd International Symposium on Computer and Information Sciences, pp. 1 - 6.

13. Facial movement analysis in ASL. Vogler, C., & Goldenstein, S. 2007, Universal Access in the Information Society, pp. 363-374.

14. Why are you raising your eyebrows? G. Conte, M. Santoro, C. Geraci, A. Cardinaletti. s.l. : 4th Workshop on the Representation and Processing of Sign Languages: Corpora and Sign Language Tecnologies, 2011, pp. 53-56.

15. Gestuário Digital. (APECDA), Associação de Pais para a Educação de Crianças Deficientes Auditivas. s.l. : Secretariado Nacional para a Reabilitação e Integração das Pessoas com Deficiência, 1999.

16. A corpus for Verifying American Sign Language During Game Play by Deaf Children. H. Brashear, Z. Zafrulla, T. Starner, et al. s.l. : 4th Workshop on the Representation and Processing of Sign Languages: Corpora and Sign Language Tecnologies, 2010.

17. Employing signed TV Broadcasts for Automated Learning of British Sign Language. P. Buehler, M. Everingham, A. Zisserman. s.l. : 4th Workshop on the Representation and Processing of Sign Languages: Corpora and Sign Language Tecnologies, 2010, pp. 33-40.

18. Spelling it Out: Real-Time ASL Fingerspelling Recognition. N. Pugeault, R. Bowden. s.l. : 1st IEEE Workshop on Consumer Depth Camres for Computer Vision, 2011.

19. Reading the Signs: a Video Based Sign Dictionary. N. Pugeault, R. Bowden. s.l. : 2nd IEEE Workshop on Analysis and Retrieval of Tracked Events and Motion in Imagery Streams (ARTEMIS), 2011.

20. Diário da República - I Série A - n.218 - . 20/09/1997.

21. Baltazar, Ana Bela. Dicionário de Língua Gestual Portuguesa. s.l. : Porto Editora, 2010. 9789720052827.

22. Unicam - 2d gestural camera controls for 3d environments. Robert Zeleznik, Andrew Forsberg. [ed.] ACM. New York, NY, USA : Proceedings of the 1999 cumposium on Interactive 3D graphics, 1999, pp. 169-173.

REFERÊNCIAS BIBLIOGRÁFICAS 89

23. Improving interpretation of remote gestures with telepointer traces. Carl Gutwin, Reagan Penner. [ed.] ACM. New York, NY, USA : Proceedings of the 2002 ACM conference on Computer suported cooperative work, 2002, pp. 49-57.

24. "put-that-there": Voice and gesture at the graphics interface. Bolt, Richard A. [ed.] ACM. New York, NY, USA : Proceedings of the 7th annual conference on Computer graphics and interactive techniques, 1980, pp. 262-270.

25. Toward natural gesture/speech control of a large display. Sanshzar Kettebekov, Rajeev Sharma. [ed.] Springer-Verlag. London, UK : Proceedings of the 8th IFIP International Conference on Engineering for Human-Computer Interaction, 2001, pp. 221-234.

26. Mutual disambiguation of the 3d multimodal interaction in augmented and virtual reality. Ed Kaiser, Alex Olwal, David McGee, Hrvoje Benko, Andrea

Corradini, Xiaoguang Li, Phil cohen, Steven Feiner. [ed.] ACM. New York, NY, USA : Proceedings of the 5th international conference on Multimodal interfaces, 2003, pp. 12-19.

27. David B. Koons, Carlton J. Sparrell, Kristinn Rr. Thorisson. Readings in intelligent user interfaces. San Francisco, CA, USA : Morgan Kaufmann Publishers Inc., 1998, Integrating simultaneous input from speech, gaze, and hand gestures, pp. 53- 64.

28. Pfinder: Real-time tracking of the human body. Christopher Richard Wren, Ali Azarbayejani, Trevor Darrell, Alex Paul Pentland. s.l. : IEEE Trans. Pattern Anal. Mach. Intell., July 1997, pp. 19:780-785.

29. A framework for spatiotemporal control in the tracking of visual contours. Andrew Blake, Rupert Curwen, Andrew Zisserman. s.l. : Int. J. Comput. Vision, October 1993, pp. 11:127-145.

30. Visual interpretation of hand gestures for human-computer interaction: A review. Vladimir I. Pavlovic, Rajeev Sharma, Thomas S. Huang. July 1997 : IEEE Trans. Pattern Anal. Mach. Intell., pp. 19:677-695.

31. Real-time hand and head tracking for virtual environments using infrared beacons. Klaus Dorfmuller, Hanno Wirth. [ed.] Springer-Verlag. London, UK : Proceedings of the International Workshop on Modelling and Motion Capture Techniques for Virtual Environments, 1998, pp. 113-297.

32. A prototype system for computer vision based human computer interaction. Lars Bretzner, Ivan Laptev, Tony Lindeberg, Yngve Sundblad. 2001.

33. Visual recognition of american sign language using hidden markov models. Thad E. Starner, Alex Pentland. 1995.

34. Hand Gesture Recognition Using T-CombNET: a New Neural Network Model. M. Lamar, Md. S.Bhuiyan, A. Iwata. s.l. : IEICE TRANS. INF. & Syst., 2000, Vols. Vol.E83-D, No.11.

35. Hand Alphabet Recognition Using Morphological PCA and Neural Networks. M. Lamart, Md. S.Bhuiyant, A. Iwata. s.l. : IJCNN’99 International, 1999.

36. Bare-hand human-computer interaction. Christian von Handerberg, François Bérard. New York, NY, USA : Proceedings of the 2001 workshop on Perceptive user interfaces, 2001, Vol. PUI '01, pp. 1-18.

37. Stereo based gesture recognition invariant to 3d pose and lighting. Radek Grzeszczuk, Gary R. Bradski, Michael H. Chu, Jean-Yves Bouguet. s.l. : IEEE Computer Society, 2000, pp. 1826-1833.

38. Towards 3-d model-based tracking and recognition of human movement: a multi-view approach. D M Gravila, L S Davis. s.l. : Automatic face and gesture recognition, 1995, pp. 3-8.

39. Digiteyes: vision-based hand tracking for human-computer interaction. J M Regh, T Kanade. s.l. : Proceedings of 1994 IEEE Workshop on Motion of Nonrigid and Ariculated Objects, 1994, pp. 16-22.

40. Hand Gesture Recognition with a Novel IR Time-of-Flight Range Camera – A Pilot Study. P. Breuer, C.Eckes, S. Muller. s.l. : Mirage 2007, pp. pp. 247-260.

41. Real-time Hand Gesture Recognition by Shape Context Based Matching and Cost Matrix. L. Deng, J. Hung, H. Keh, et al. s.l. : Journal of Networks, 2011, pp. pp. 697-704.

42. Vision-based gesture recognition: a review. Ying Wu, Thomas S. Huang. [ed.] Springer-Verlag. London, UK : Proceedings of the International Gesture Workshop on Gesture-Based Communication in Human-Computer Interaction, 1999, pp. 103-115.

43. DepthTouch: Using depth-sensing camera to enable reehand interactions on and above theinteractive surface. Wilson, H. Benko and A. s.l. : Microsoft, Tech. Rep., 2009.

44. Open "Kinect" Comunity Site. Open "kinect". [Online] Jan de 2011. [Citação: 19 de Nov de 2011.] http://open"Kinect".org/.

REFERÊNCIAS BIBLIOGRÁFICAS 91

45. OpenNI User Guide. OpenNI. [Online] Jan de 2011. [Citação: 19 de Nov de 2011.] http://openni.org/documentation.

46. PrimeSensorNite Web Site. PrimeSensor. [Online] Jan de 2011. [Citação: 19 de Nov de 2011.] http://primesense.com/?p=515.

47. Augmented Realityfor Immersive Remote Collaboration. D. Gelb, A. Subramanian, and K. H. Tan. s.l. : HP Laboratories, Tech.Rep., 2010.

48. Fabricio Ferrari, Cristian Cechinel. Introdução a Algoritmos e Programação.

49. Bruno Tovet, Cristian Koliver. Introdução aos Algoritmos. s.l. : Núcleo de Aprendizagem à Programação.

50. Data Mining Algorithms (Analysis Services - Data Mining). [Online] [Citação: 20 de April de 2012.] http://msdn.microsoft.com/en-us/library/ms175595.aspx.

51. Waikato, The University of. WEKA. [Online] [Citação: 10 de April de 2012.] http://www.cs.waikato.ac.nz/ml/weka/index.html.

52. Top 10 algorithms in data mining. XindongWu, Vipin Kumar, J. Ross Quinlan, Joydeep Ghosh, Qiang Yang. London : Springer-Verlag London Limited 2007, 2007.

53. Standardization, International Organization for. Data Elements and Interchange formats - Information Interchange - Representation of Dates and Times. ISO 8601:2004. 2004. 01.140.30.

54. OpenCV. [Online] [Citação: 19 de Nov de 2011.]

http://opencv.willowgarage.com.

55. EmguCV. [Online] [Citação: 19 de Nov de 2011.] http://www.emgu.com.

56. PrimeSense PrimeSensor. [Online] [Citação: 09 de April de 2012.] http://en.souvr.com/product/201004/6180.html.

57. PrimeSense Natural Interaction. [Online] [Citação: 09 de April de 2012.] http://www.primesense.com/nite.

58. Microsoft Research Kinect SDK. Microsoft. [Online] [Citação: 19 de Nov de 2011.] http://Kinectforwindows.org/.

59. C++. [Online] [Citação: 19 de Nov de 2011.] http://www.cplusplus.com/.

60. C#. [Online] [Citação: 19 de Nov de 2011.] http://msdn.microsoft,com/en- US/vstudio/hh341490.

61. Java (programming language). [Online] [Citação: 09 de April de 2012.] http://en.wikipedia.org/wiki/Java_%28programming_language%29.

62. James Gosling. [Online] [Citação: 09 de April de 2012.] http://en.wikipedia.org/wiki/James_Gosling.

63. Oracle and Sun. [Online] [Citação: 09 de April de 2012.] http://www.oracle.com/us/sun/index.htm.

64. The Java Virtual Machine Specification. [Online] [Citação: 10 de April de 2012.] http://docs.oracle.com/javase/specs/jvms/se5.0/html/VMSpecTOC.doc.html.

65. IKVM.NET Home Page. [Online] [Citação: 10 de April de 2012.] http://www.ikvm.net/index.html.

66. Mono. [Online] [Citação: 09 de April de 2012.] http://www.mono- project.com/Main_Page.

67. .NET Framework Developer Center. [Online] [Citação: 09 de April de 2012.] http://msdn.microsoft.com/en-us/netframework/.

68. WEKA. [Online] University of Waikato. [Citação: 10 de April de 2012.] http://www.cs.waikato.ac.nz/ml/weka/index.html.

69. Non-rigid Shape Recognition for Sign Language Understanding. Vladutu, L. 12, 2009, WSEAS Transactions on SYSTEMS, Vol. 8, pp. 1263-1272.

70. Skeleton-Based Data Compression for Multi-camera Tele-Immersion System. J. M. Lien, G. Kurillo, R. Bajcsy. 2007, Advances in Visual Computing, pp. 714-723.

71. EMG-Based Hand Gesture Recognition for Realtime Biosignal Interfacing. J. Kim, S. Mastnik, E. André. 2008, Proceedings of the 13th International Conference on Intelligent User Interfaces.

72. Georgia Tech Gesture Toolkit: Supporting Experiments in Gesture Recognition. T. Westeyn, H. Brashear, A. Atrash, T. Starner. 2003, Proceedings of the 5th International Conference on Multimodal Interfaces.

73. Online hand gesture recognition using neural network based segmentation. Zhu, Chun e Sheng, Weihua. 2009, 2009 IEEE/RSJ International Conference on Intelligent Robots and Systems, pp. 2415-2420.

74. Towards a One-Way American Sign Language Translator. R. M. McGuire, J. Hernandez-Rebollar, T. Starner, V. Henderson, H. Brashear, D. S. Ross. 2004, Sixth IEEE International Conference on Automatic Face and Gesture Recognition.

75. Appearance Based Recognition of American Sign Language Using Gesture Segmentation. V. S. Kulkarmi, S. D. Lokhande. no. 3, 2010, International Journal on Computer Science and Engineering, Vol. vol 2, pp. 560-565.

REFERÊNCIAS BIBLIOGRÁFICAS 93

76. Hand gesture recognition using a neural network shape fitting technique. Stergiopoulou, E. e Papamarkos, N. 8, 2009, Engineering Applications of Artificial Intelligence, Vol. 22, pp. 1141-1158.

77. Hand Gesture Recognition for a Man-Machine Interaction. T. Kapuscinski, M. Wysocki. 2001, Proceedings em the Second International Workshop on Robot Motion and Control.

78. Hand Gesture Recognition in Natural State Based on Rotation Invariance and OpenCV Realization. B. Zhang, R. Yun, H. Qiu. 2010, Entertainment for Education, Digital Techniques and Systems, Vol. 6249, pp. 486-496.

79. OGRE - Open Gestures Recognition Engine. Dias, J.M.S., et al., et al. Proceedings. 17th Brazilian Symposium on Computer Graphics and Image Processing.

80. Hand Region Extraction and Gesture Recognition Using Entropy Analysis. J. H. Shin, J. S. Lee, S. K. Kil, D. F. Shen, J. G. Ryu, E. H. Lee, H. K. Min, S. H. Song. 2A, 2006, IJCSNS International Journal of Computer Science and 216 Network Security, Vol. 6, p. 216.

81. Static Hand Gesture Recognition and its Application Based on Support Vector Machine. Y. Liu, Z. Gan, Y. Sun. 2008, Ninth ACIS International Conference on Software Engineering, Artificial Intelligence, Networking, and Parallel/Distributed Computing, Vol. 0, pp. 517-521.

82. Hand Pose Estimation for Vision-Based Human Interface. E. Ueda, Y. Matsumoto, M. Imai, T. Ogasawara. 2001, Proceedings, 10th IEEE International Workshop on Robot and Human Interactive Communication.

83. Real Time Hand Based Robot Control Using Multimodal Images. S. E. Ghobadi, O. E. Loepprich, F. Ahmadov, J. Bernshausen, K. Hartmann, O. Loffeld. 4, 2008, IAENG International Journal of Computer Science, Vol. 35, pp. 500-505.

84. Gesture Recognition with a Time-of-Flight Camera. E. Kollorz, J. Penne, J. Hornegger, A. Barke. 3/4, 2008, International Journal of Intelligent Systems Technologies and Applications, Vol. 5, pp. 334-343.

85. Gesture Recognition for Alphabets from Hand Motion Trajectory Using Hidden Markov Models. M. Elmezain, A. Al-Hamadi, G. Krell, S. El-Etriby, B. Michaelis. 3, 2007, IEEE International Symposium on Signal Processing and Information Technology, pp. 1192-1197.

86. The SignSpeak Project - Bridging the Gap Between Signers and Speakers. Dreuw, Philippe, et al., et al. 2010.

87. A Similarity Measure for Vision-Based Sign Recognition. H. Wang, A. Stefan, V. Athisos. Berlin, Heidelberg : Springer-Verlag, 2009, Proceedings of the 5th International Conference on Universal Access in Human-Computer Interaction, Part III: Applications and Services, pp. 607-616.

88. Real-time video based finger spelling recognition system using low computational complexity Artificial Neural Networks. Bragatto, T. a. C., Ruas, G. I. S.

e Lamar, M. V. 2006, 2006 International Telecommunications Symposium, pp. 393- 397.

89. Using Multiple Sensors for Mobile Sign Language Recognition. H. Brashear, T. Starner, P. Lukowicz, H. Junker. 2003, Proceedings, Seventh IEEE International Symposium.

90. NUI, Candescent. Candescent NUI. Codeplex . [Online] [Citação: 23 de July de 2012.] http://candescentnui.codeplex.com/.

BIBLIOGRAFIA 95

Bibliografia

4th Workshop on the Representation and Processing of Sign Languages : Corpora and Sign Language Technologies Language Resources and Evaluation Conference ( LREC ). Dreuw, Philippe e De, Aachen. Valletta , Malta : s.n., May 2010.

Algoritmos Para Aprendizagem Supervisionada. Winandy, Charles-Edouard,

Filho, Estillac Borges e Bento, Lisânia Vieira. 2007, Seminários.

An adaptive clustering algorithm for image segmentation. Pappas, T.N. 1992, IEEE Transactions on Signal Processing, pp. 901-914.

ASL recognition based on a coupling between HMMs and 3D motion analysis.

Vogler, C. e Metaxas, D. Sixth International Conference on Computer Vision, pp. 363- 369.

Automatic Hand Trajectory Segmentation and Phoneme Transcription for Sign Language. Kong, W W e Ranganath, Surendra. Computer Engineering.

A Comparison of Unsupervised Learning Algorithms for Gesture Clustering. Ball,

Adrian, et al., et al. 2011, Pattern Recognition, pp. 111-112.

A new instrumented approach for translating American Sign Language into sound and text. Hernandez-Rebollar, J.L., Kyriakopoulos, N. e Lindeman, R.W. 2004, Sixth IEEE International Conference on Automatic Face and Gesture Recognition, 2004. Proceedings., pp. 547-552.

Combining Multiple Depth Cameras and Projectors for Interactions On , Above , and Between Surfaces. Wilson, Andrew D. 2010, Human Factors, pp. 273-282.

Compared to what? : an introduction to the analysis of algorithms. Rawlins,

Gregory J. E. s.l. : Computer Science Press, 1992. 0-7167-8243-X.

Comparison of View-Based Object Recognition Algorithms Using Realistic 3D Models 1 Recognition by Oriented Filters. Blanz, V, et al., et al. Learning.

Continuous Sign Language Recognition – Approaches from Speech Recognition and Available Data Resources. Zahedi, Morteza, et al., et al. 1998, Corpus.

Hand gesture recognition using morphological principal component analysis and an improved CombNET-II. Lamar, M.V., Bhuiyan, Md.S. e Iwata, A. 1999, IEEE SMC'99 Conference Proceedings. 1999 IEEE International Conference on Systems, Man, and Cybernetics, pp. 57-62.

Hand Gesture Recognition Using T-CombNET : A New Neural Network Model.

Lamar, Marcus Vinicius e Bhuiyan, Shoaib. 2000, Ratio, pp. 1986-1995.

Hand Gesture Recognition : Sign to Voice. Sv, System, et al., et al. 2008, Engineering and Technology, pp. 26-30.

Human Activity Detection from RGBD Images. Sung, Jaeyong, et al., et al. 2005, Artificial Intelligence.

Improving the Efficacy of Automated Sign Language Practice Tools. Brashear,

Helene M. August 2010, Computing.

Interaction in Augmented Reality Environments Using Kinect. Santos, Eduardo

Souza, Lamounier, Edgard a. e Cardoso, Alexandre. 2011, 2011 XIII Symposium on Virtual Reality, pp. 112-121.

Introdução aos Modelos Escondidos de Markov ( HMM ). Luiz Eduardo Soares

de Oliveira, Marisa Emika Morita Pontifícia. s.l. : Universidade Católica do Paraná – PUC-Pr . PPGIA – Programa de Pós-Graduação em Informática Aplicada Rua Imaculada Conceição ,.

Middleware for Wireless Medical Body Area Network. Waluyo, Agustinus Borgy,

et al., et al. 2007, 2007 IEEE Biomedical Circuits and Systems Conference, pp. 183- 186.

OGRE - Open Gestures Recognition Engine. Dias, J.M.S., et al., et al. Proceedings. 17th Brazilian Symposium on Computer Graphics and Image Processing.

Online hand gesture recognition using neural network based segmentation. Zhu,

Chun e Sheng, Weihua. 2009, 2009 IEEE/RSJ International Conference on Intelligent Robots and Systems, pp. 2415-2420.

O parâmetro expressão na Língua Gestual Portuguesa : unidade suprassegmental.

Correia, Isabel Sofia Calvário. Junho 2009, Resumo, Coimbra, pp. 57-68.

People Detection in RGB-D Data. Spinello, Luciano e Arras, Kai O. Advances. Proceedings of GW2007 - 7th International Workshop on Gesture in Human- Computer Interaction and Simulation Credits. Rita, Ana e Adetti, Leitão. s.l. : Editorial Production Logo and Cover, 2007 .

BIBLIOGRAFIA 97

Projective Structure and Motion from Image Sequences using Subspace Methods.

Heyden, Anders.

Reading the Signs : A Video Based Sign Dictionary. Cooper, Helen, Pugeault,

Nicolas e Bowden, Richard. 2011, Methodology, pp. 2-7.

Real-Time Hand Tracking and Gesture Recognition System Using Neural Networks. Hninn, Tin e Maung, Hninn. 2009, Engineering and Technology, pp. 466- 470.

Real-time Sign Language Letter and Word Recognition from Depth Data.

Uebersax, Dominique e Bergh, Michael Van Den. The Hand, pp. 1-8.

Real-time video based finger spelling recognition system using low computational complexity Artificial Neural Networks. Bragatto, T. a. C., Ruas, G. I. S. e Lamar, M.

V. 2006, 2006 International Telecommunications Symposium, pp. 393-397.

Recognizing Hand Gestures with Microsoft ’ s Kinect. Tang, Matthew. Computer. Recognizing human action in time-sequential images using hidden Markov model.

Yamato, J., Ohya, J. e Ishii, K. 1992, Proceedings 1992 IEEE Computer Society Conference on Computer Vision and Pattern Recognition, pp. 379-385.

Standards & Emerging Technologies Human Activity Recognition and Pattern Discovery. Eunju Kim, Sumi Helal, Diane Cook. 2010, Training.

The SignSpeak Project - Bridging the Gap Between Signers and Speakers. Dreuw,

Philippe, et al., et al. 2010.

Um Estudo sobre Modelos Ocultos de Markov HMM - Hidden Markov Model Sum.

No documento Interpretação da língua gestual portuguesa (páginas 111-200)

Documentos relacionados