• Nenhum resultado encontrado

Neste cap´ıtulo, s˜ao apresentadas as conclus˜oes resultantes do estudo e desenvolvimento dos prot´otipos de Head-Mounted Displays de realidade aumentada realizados durante o presente trabalho e tamb´em s˜ao apontadas as dire¸c˜oes para os trabalhos futuros.

8.1

Conclus˜oes

Este trabalho apresentou uma vis˜ao geral sobre os dispositivos vest´ıveis de realidade aumentada, conhecidos como Head-Mounted Displays, e a aplica¸c˜ao deles na ind´ustria.

O desenvolvimento e a avalia¸c˜ao de HMDs de baixo-custo para realidade aumentada foram abordados atrav´es da constru¸c˜ao de trˆes prot´otipos.

O primeiro prot´otipo a ser criado, detalhado no Cap´ıtulo 4, consistiu em um VST- HMD. Junto a esse dispositivo foi testado o uso de diversos sensores para coleta de dados sobre ambiente no qual o usu´ario est´a inserido. Essa diversidade possibilita o uso de algoritmos de fus˜ao de dados para extra¸c˜ao de informa¸c˜oes de contexto que podem ser relevantes em aplica¸c˜oes de realidade aumentada. O custo total de fabrica¸c˜ao desse HMD foi de, aproximadamente, US$ 120. A partir de experimentos e de uma avalia¸c˜ao emp´ırica desse prot´otipo, foram constatadas algumas limita¸c˜oes de experiˆencia do usu´ario. Entre todas as limita¸c˜oes encontradas, as seguintes se destacam: a vis˜ao perif´erica bloqueada; o display biocular; a baixa resolu¸c˜ao do display; e a dificuldade de visualiza¸c˜ao das informa¸c˜oes virtuais providas pelo aplicativo de realidade aumentada.

Dessa forma, foi constatado que essas limita¸c˜oes poderiam ser superadas atrav´es da

elabora¸c˜ao de um prot´otipo com uma arquitetura diferente.

Sendo assim, foi criado o segundo prot´otipo. Esse dispositivo, detalhado no Cap´ıtulo 5, trata-se de um OST-HMD Binocular. As principais modifica¸c˜oes realizadas est˜ao rela- cionadas `a ado¸c˜ao da tecnologia OST no lugar da VST, atrav´es da utiliza¸c˜ao de um combinador ´otico, ao uso de um display binocular, no lugar do display biocular empre- gado na vers˜ao anterior, e `a aplica¸c˜ao de um algoritmo de Gaze Tracking para melhorar a experiˆencia do usu´ario. O custo total de fabrica¸c˜ao desse HMD foi de, aproximadamente, US$ 100.

Considerando as modifica¸c˜oes realizadas, a segunda vers˜ao do prot´otipo apresenta algumas vantagens em rela¸c˜ao `a primeira vers˜ao. As principais vantagens observadas consistem na n˜ao oclus˜ao da vis˜ao perif´erica do usu´ario, devido ao uso do combinador ´

otico, na possibilidade de visualiza¸c˜ao de informa¸c˜oes virtuais em 3D combinadas com o mundo real, atrav´es do display binocular do tipo OST. Apesar das in´umeras vantagens, outros problemas foram constatados atrav´es da realiza¸c˜ao de uma pequena avalia¸c˜ao de experiˆencia de usu´ario. Dentre eles se destacam: a necessidade de calibra¸c˜ao frequente do HMD, a dificuldade no posicionamento consistente das informa¸c˜oes virtuais sobre o mundo real e o peso elevado do prot´otipo. Al´em disso, o algoritmo de Gaze Tracking uti- lizado apresentou algumas limita¸c˜oes e deve ser aprimorado para possibilitar a intera¸c˜ao do usu´ario com os objetos virtuais atrav´es do olhar.

Atrav´es dessa avalia¸c˜ao, foi poss´ıvel perceber que o peso e o conforto correspondiam aos aspectos desse projeto que deveriam ser aprimorados com maior urgˆencia a fim de obter-se melhor usabilidade e de oferecer uma experiˆencia mais agrad´avel ao usu´ario. A partir disso, foi proposto o desenvolvimento de um novo equipamento com arquitetura simples e, consideravelmente, mais leve.

O terceiro prot´otipo constru´ıdo, detalhado no Cap´ıtulo 6, trata-se de um OST-HMD Monocular para realidade aumentada. As principais modifica¸c˜oes realizadas est˜ao re- lacionadas `a ado¸c˜ao da arquitetura monocular no lugar da binocular e ao uso de um pequeno display de OLED ao inv´es do smartphone. Essas mudan¸cas resultaram em um custo total de fabrica¸c˜ao de, aproximadamente, US$ 27.

As modifica¸c˜oes realizadas fizeram com que o terceiro prot´otipo apresentasse algumas vantagens em rela¸c˜ao aos demais. Entre elas se destacam: o peso inferior; a melhor usabilidade; um menor intervalo de tempo necess´ario entre configura¸c˜ao e in´ıcio da utiliza¸c˜ao; e a independˆencia da tela do smartphone para funcionamento, que faz com que haja menor demanda de consumo energ´etico.

Devido `as vantagens apresentadas, tornou-se poss´ıvel a realiza¸c˜ao de um estudo apro- fundado a respeito da experiˆencia de usu´ario ao utilizar o prot´otipo de OST-HMD Mo- nocular. Atrav´es desse estudo foi poss´ıvel constatar um ganho de produtividade rela- cionado ao uso de realidade aumentada durante a realiza¸c˜ao de uma tarefa espec´ıfica. Al´em disso, a avalia¸c˜ao conduzida tamb´em constatou algumas limita¸c˜oes relacionadas `a experiˆencia de usu´ario. Os pontos principais que devem ser melhorados s˜ao: o peso, o desbalanceamento e o ajuste focal. Todos eles foram motivos de cr´ıticas relatadas por alguns participantes e, portanto, devem ser considerados no desenvolvimento de vers˜oes futuras do prot´otipo. Apesar dos problemas, o desempenho do prot´otipo foi considerado satisfat´orio, principalmente devido `a grande melhora na usabilidade e ao seu baixo custo de fabrica¸c˜ao.

Apesar das limita¸c˜oes, foi realizado um estudo de caso, detalhado no Cap´ıtulo 7, que ilustra a aplica¸c˜ao dos prot´otipos de HMDs de realidade aumentada na teleinspe¸c˜ao dos transportadores de correias da ind´ustria da minera¸c˜ao.

Al´em disso, foram avaliadas diversas plataformas de hardware, capazes de executar algoritmos de processamento de imagens e reconhecimento de padr˜oes, para composi¸c˜ao dos prot´otipos. A Intel Edison, a Raspberry Pi 3 Model B e a Wandboard Quad fo- ram as placas de desenvolvimento que apresentaram melhor desempenho geral. A Intel Edison se destaca pelo tamanho reduzido aliado ao bom desempenho. Enquanto isso, a Raspberry Pi 3 Model B apresenta excelente desempenho e baixo-custo. Por fim, a Wandboard Quad obteve excelentes resultados em todos os experimentos realizados.

Considerando os diversos aspectos que devem ser aprimorados, a Se¸c˜ao seguinte aponta algumas dire¸c˜oes para os trabalhos futuros.

8.2

Trabalhos Futuros

Com base nas limita¸c˜oes de experiˆencia de usu´ario observadas nos prot´otipos desenvol- vidos, os seguintes pontos devem ser considerados na realiza¸c˜ao de trabalhos futuros:

• Aprimoramento da modelagem 3D de todos HMDs, visando redu¸c˜ao e balancea- mento do peso, assim como o aumento do conforto para o usu´ario;

• A avalia¸c˜ao das op¸c˜oes de displays dedicados dispon´ıveis no mercado para subs- titui¸c˜ao do smartphone nos prot´otipos com as arquiteturas VST Biocular e OST

Binocular;

• A substitui¸c˜ao do uso da cˆamera do smartphone por duas cˆameras com posi¸c˜oes ajust´aveis, para prover uma vis˜ao binocular e sem efeito paralaxe no prot´otipo do VST-HMD, embora isso possa aumentar o custo de fabrica¸c˜ao do dispositivo; • A substitui¸c˜ao do par de lentes biconvexas e do combinador ´otico plano por um

combinador ´otico semiesf´erico, com intuito de ampliar o campo de vis˜ao e aumentar a profundidade de campo do OST-HMD Binocular;

• A realiza¸c˜ao de um estudo aprofundado sobre experiˆencia de usu´ario durante a intera¸c˜ao com os prot´otipos que ainda n˜ao foram avaliados.

• O desenvolvimento de um mecanismo de ajuste de foco e a cria¸c˜ao de uma pe¸ca de encaixe que permita a adapta¸c˜ao OST-HMD Monocular para ser utilizado acoplado a qualquer ´oculos ou capacete;

• A investiga¸c˜ao de algoritmos de SLAM para auxiliar na sobreposi¸c˜ao correta do mundo real pelas informa¸c˜oes virtuais geradas pelos prot´otipos de realidade au- mentada.

• O uso de algoritmos de fus˜ao de dados para extra¸c˜ao de informa¸c˜oes sobre o con- texto do usu´ario a partir do conjunto de sensores utilizado.

Considerando o algoritmo de Gaze Tracking que foi proposto, os trabalhos futuros devem investigar uma alternativa que melhore a detec¸c˜ao autom´atica da regi˜ao dos olhos e ofere¸ca maior robustez `as varia¸c˜oes de luminosidade.

Al´em disso, ´e importante realizar uma avalia¸c˜ao de experiˆencia de usu´ario com rela¸c˜ao ao uso dos trˆes prot´otipos desenvolvidos no contexto apresentado pelo estudo de caso.

Outro trabalho relevante est´a relacionado `a compara¸c˜ao da experiˆencia de usu´ario dos trˆes prot´otipos desenvolvidos com algumas solu¸c˜oes de HMDs de realidade aumentada dispon´ıveis no mercado.

[1] M. E. Porter and J. E. Heppelmann. (2017) A manager’s guide to augmented reality. [Online]. Available: https://hbr.org/2017/11/ a-managers-guide-to-augmented-reality

[2] Digi-Capital. (2016) Augmented/Virtual Reality revenue fo- recast revised to hit US$120 billion by 2020. [Online]. Available: http://www.digi-capital.com/news/2016/01/ augmentedvirtual-reality-revenue-forecast-revised-to-hit-120-billion-by-2020/

[3] P. Fraga-Lamas, T. M. Fern´andez-Caram´es, . Blanco-Novoa, and M. A. Vilar- Montesinos, “A review on industrial augmented reality systems for the industry 4.0 shipyard,” IEEE Access, vol. 6, pp. 13 358–13 375, 2018.

[4] R. McKendrick, R. Parasuraman, R. Murtza, A. Formwalt, W. Baccus, M. Paczynski, and H. Ayaz, “Into the wild: Neuroergonomic differentiation of hand-held and augmented reality wearable displays during outdoor navigation with functional near infrared spectroscopy,” Frontiers in Human Neuroscience, vol. 10, p. 216, 2016. [Online]. Available: https://www.frontiersin.org/article/10. 3389/fnhum.2016.00216

[5] U. Rehman and S. Cao, “Augmented-reality-based indoor navigation: A compa- rative analysis of handheld devices versus google glass,” IEEE Transactions on Human-Machine Systems, vol. 47, no. 1, pp. 140–151, Feb 2017.

[6] P. Ramakrishna, E. Hassan, R. Hebbalaguppe, M. Sharma, G. Gupta, L. Vig, G. Sharma, and G. Shroff, “An ar inspection framework: Feasibility study with multiple ar devices,” in 2016 IEEE International Symposium on Mixed and Aug- mented Reality (ISMAR-Adjunct), Sept 2016, pp. 221–226.

[7] R. Hills-Duty. (2017) Combined AR/VR Headset Market To Be Worth US$35 Billion By 2024. [Online]. Available: https://www.vrfocus.com/2017/11/ combined-arvr-headset-market-to-be-worth-35-billion-by-2024/

[8] PR-Newswire. (2017) Mixed Reality Headsets Market to Hit $35bn by 2024: Global Market Insights, Inc. [On- line]. Available: http://www.prnewswire.co.uk/news-releases/

mixed-reality-headsets-market-to-hit-35bn-by-2024-global-market-insights-inc-660470773. html

[9] K. Kiyokawa, “Head-mounted display technologies for augmented reality,” in Fun- damentals of Wearable Computing and Augmented Reality. CRC Press, 2015, pp. 59–84.

[10] J. Bush. (2017) VR vs. AR: What will dominate the fu- ture? [Online]. Available: https://www.electronicspecifier.com/vr-ar/ vr-vs-ar-what-will-dominate-the-future-1

[11] Epson. (2018) Epson Smart Glasses. [Online]. Available: https://epson.com/ For-Work/Wearables/Smart-Glasses/c/w420

[12] Microsoft. (2016) Microsoft Hololens. [Online]. Available: https://www.microsoft. com/microsoft-hololens/en-us/order-now

[13] J. Martin. (2016) CNET: Heads-on with a smart helmet that’s named after a delicious drink. [Online]. Available: https://www.cnet.com/products/ daqri-smart-helmet/preview/

[14] G. Kramida, “Resolving the vergence-accommodation conflict in head-mounted displays,” IEEE Transactions on Visualization and Computer Graphics, vol. 22, no. 7, pp. 1912–1931, July 2016.

[15] B. Kress, “Optics for smart glasses, smart eyewear, augmented reality, and virtual reality headsets,” in Fundamentals of Wearable Computing and Augmented Reality. CRC Press, 2015, pp. 85–124.

[16] H. Fuchs, A. State, D. Dunn, and K. Keller, “Converting Commodity Head- Mounted DIsplays for Optical See-Through Augmented Reality,” Mar 2015. [17] Y. Itoh, J. Orlosky, M. Huber, K. Kiyokawa, and G. Klinker, “Ost rift: Temporally

consistent augmented reality with a consumer optical see-through head-mounted display,” in 2016 IEEE Virtual Reality (VR), March 2016, pp. 189–190.

[18] A. Plopski, Y. Itoh, C. Nitschke, K. Kiyokawa, G. Klinker, and H. Takemura, “Corneal-imaging calibration for optical see-through head-mounted displays,” IEEE Transactions on Visualization and Computer Graphics, vol. 21, no. 4, pp. 481–490, April 2015.

[19] Y. Itoh and G. Klinker, “Interaction-free calibration for optical see-through head- mounted displays based on 3d eye localization,” in 3D User Interfaces (3DUI), 2014 IEEE Symposium on, March 2014, pp. 75–82.

[20] R. Metz. (2017) $99 Headset Could Be Augmented Reality’s First True Chance at a Mass Market. [Online]. Available: https://www.technologyreview.com/s/608292/ 99-headset-could-be-augmented-realitys-first-true-chance-at-a-mass-market/ [21] N. Arora. (2017) Smartphone-centric enhanced headsets key to mass

VR adoption in India. [Online]. Available: https://yourstory.com/2017/07/ smartphone-centric-enhanced-headsets-key-mass-vr-adoption-india/

[22] Mobile-World. (2018) AR, VR headset market set for recovery – IDC. [Online]. Available: https://www.mobileworldlive.com/devices/news-devices/ ar-vr-headset-market-set-for-recovery-idc/

[23] L. Cox. (2017) Will Affordable AR Headsets Accelerate Adoption? [Online]. Available: https://disruptionhub.com/ augmented-reality-affordable-headset-accelerates-adoption/

[24] Mira. (2017) Mira Prism. [Online]. Available: https://www.mirareality.com/ [25] Levono. (2017) Lenovo Mirage. [Online]. Available: https://www3.lenovo.com/

us/en/jedichallenges/

[26] K. Guttag. (2017) Mira Prism and Dreamworld AR – (What Disney Should Have Done?). [Online]. Available: https://www.kguttag.com/2017/07/ 22/mira-prism-and-dreamworld-ar-what-disney-should-have-done/

[27] J. Condliffe. (2017) Another Price Slash Suggests the Oculus Rift Is Dead in the Water. [Online]. Available: https://www.technologyreview.com/s/608257/ another-price-slash-suggests-the-oculus-rift-is-dead-in-the-water/

[28] L. Matney. (2018) Leap Motion’s new AR headset prototype is high-res, low-cost and a little bug-eyed. [Online]. Available: https://techcrunch.com/2018/04/09/ leap-motions-new-ar-headset-prototype-is-high-res-low-cost-and-a-little-bug-eyed/

[29] P. Milgram, H. Takemura, A. Utsumi, and F. Kishino, “Augmented reality: A class of displays on the reality-virtuality continuum,” in Telemanipulator and tele- presence technologies, vol. 2351. International Society for Optics and Photonics, 1995, pp. 282–293.

[30] C. Cani D.L., F. B. Breyer, and J. Kelner, “Remote hri and mixed reality, an onto- logy,” in Design, User Experience, and Usability: Technological Contexts, A. Mar- cus, Ed. Cham: Springer International Publishing, 2016, pp. 249–257.

[31] ExtremeTech. (2016) Oculus CEO hopes Rift spurs gamers to upgrade their ’crappy PCs’. [Online]. Available: https://www.extremetech.com/gaming/ 221088-oculus-ceo-hopes-rift-spurs-gamers-to-upgrade-their-crappy-pcs

[32] R. T. Azuma, “A survey of augmented reality,” Presence: Teleoperators & Virtual Environments, vol. 6, no. 4, pp. 355–385, 1997.

[33] G1-Globo. (2015) ’Minecraft’ ganha vida com rea- lidade virtual mista das HoloLens. [Online]. Avai- lable: http://g1.globo.com/tecnologia/games/e3/2015/noticia/2015/07/ minecraft-ganha-vida-com-realidade-virtual-mista-das-hololens-g1-testou.html [34] R. A. Roberto, D. Q. d. Freitas, F. P. M. Sim˜oes, and V. Teichrieb, “A dynamic

blocks platform based on projective augmented reality and tangible interfaces for educational activities,” in 2013 XV Symposium on Virtual and Augmented Reality, May 2013, pp. 1–9.

[35] J. Polvi, T. Taketomi, A. Moteki, T. Yoshitake, T. Fukuoka, G. Yamamoto, C. San- dor, and H. Kato, “Handheld guides in inspection tasks: Augmented reality vs. picture,” IEEE Transactions on Visualization and Computer Graphics, pp. 1–1, 2017.

[36] A. R. M. Cuperschmid, M. G. Grachet, and M. M. Fabricio, “Augmented reality as a tutorial tool for construction tasks,” in ACHI 2016. IARIA, 2016, pp. 192–197. [37] M. Bolas and D. M. Krum, “Augmented reality applications and user interfaces using head-coupled near-axis personal projectors with novel retroreflective props and surfaces,” in Pervasive 2010 Ubiprojection Workshop, 2010.

[38] J. M. Teixeira, R. Ferreira, M. Santos, and V. Teichrieb, “Teleoperation using google glass and ar, drone for structural inspection,” in 2014 XVI Symposium on Virtual and Augmented Reality, May 2014, pp. 28–36.

[39] S. Mann, “Vision 2.0,” IEEE Spectrum, vol. 50, no. 3, pp. 42–47, 2013.

[40] A. Dey, M. Billinghurst, R. W. Lindeman, and J. E. Swan, “A systematic review of 10 years of augmented reality usability studies: 2005 to 2014,” Frontiers in Robotics and AI, vol. 5, p. 37, 2018. [Online]. Available: https://www.frontiersin.org/article/10.3389/frobt.2018.00037

[41] Optinvent. (2016) Optinvent Ora 2. [Online]. Available: http://www.optinvent. com/produit/ora-2

[42] Y. S. A. Takagi, S. Yamazaki and N. Taniguchi, “Development of a stereo video see-through HMD for AR systems,” 2000, pp. 68–77.

[43] K. P. K. A. State and H. Fuchs, “Simulation-based design and rapid prototyping of a parallax-free, orthoscopic video see-through head-mounted display,” 2005, pp. 28–31.

[44] S. Mann, “The eyetap principle: Effectively locating the camera inside the eye as an alternative to wearable camera systems,” in Intelligent Image Processing. John Wiley & Sons, Inc., 2002, pp. 64–102.

[45] D. M. Hoffman, A. R. Girshick, K. Akeley, and M. S. Banks, “Ver- gence–accommodation conflicts hinder visual performance and cause visual fatigue,” Journal of Vision, vol. 8, no. 3, p. 33, 2008. [Online]. Available: +http://dx.doi.org/10.1167/8.3.33

[46] H. Godoy. (2010) Peter Anderson, ASC no Festival do Rio 2008. [Online]. Available: http://abcine.org.br/site/peter-anderson-asc-no-festival-do-rio-2008/ [47] E. Ackerman. (2015, Aug) 4-D light field displays are

exactly what virtual reality needs. IEEE Spectrum. [Online]. Available: http://spectrum.ieee.org/tech-talk/consumer-electronics/gaming/ 4d-light-field-displays-are-exactly-what-virtual-reality-needs

[48] F.-C. Huang, D. Luebke, and G. Wetzstein, “The light field stereoscope,” in ACM SIGGRAPH 2015 Emerging Technologies, ser. SIGGRAPH ’15. New York, NY, USA: ACM, 2015, pp. 24:1–24:1. [Online]. Available: http://doi.acm.org/10.1145/2782782.2792493

[49] J. P. Rolland and H. Fuchs, “Optical Versus Video See-Through Head Mounted Displays in Medical Visuailization,” Presence, vol. 9, no. 3, pp. 287–309, 2000.

[50] A. C. M. Billinghurst and G. Lee, “A Survey of Augmented Reality,” Foundations and Trends in Human-Computer Interaction, vol. 8, no. 2–3, pp. 73–272, 2014. [51] R. Valenti and T. Gevers, “Accurate eye center location through invariant isocen-

tric patterns,” IEEE Transactions on Pattern Analysis and Machine Intelligence, vol. 34, no. 9, pp. 1785–1798, Sept 2012.

[52] D. W. Hansen and Q. Ji, “In the eye of the beholder: A survey of models for eyes and gaze,” IEEE Transactions on Pattern Analysis and Machine Intelligence, vol. 32, no. 3, pp. 478–500, March 2010.

[53] D. Dunn, C. Tippets, K. Torell, P. Kellnhofer, K. Ak¸sit, P. Didyk, K. Myszkowski, D. Luebke, and H. Fuchs, “Wide field of view varifocal near-eye display using see- through deformable membrane mirrors,” IEEE Transactions on Visualization and Computer Graphics, vol. 23, no. 4, pp. 1322–1331, April 2017.

[54] K. Guttag. (2017) VAC By Oculus and Microsoft . . . Everywhere and Nowhere. [Online]. Available: https://www.kguttag.com/2017/06/17/ vac-by-oculus-and-microsoft-everywhere-and-nowhere/

[55] R. Valenti, N. Sebe, and T. Gevers, “Combining head pose and eye location in- formation for gaze estimation,” IEEE Transactions on Image Processing, vol. 21, no. 2, pp. 802–815, Feb 2012.

[56] Y. m. Cheung and Q. Peng, “Eye gaze tracking with a web camera in a desktop environment,” IEEE Transactions on Human-Machine Systems, vol. 45, no. 4, pp. 419–430, Aug 2015.

[57] A. Kar and P. Corcoran, “A review and analysis of eye-gaze estimation systems, algorithms and performance evaluation methods in consumer platforms,” IEEE Access, vol. 5, pp. 16 495–16 519, 2017.

[58] R. Valenti and T. Gevers, “Accurate eye center location and tracking using isophote curvature,” in Computer Vision and Pattern Recognition, 2008. CVPR 2008. IEEE Conference on, June 2008, pp. 1–8.

[59] M. Schneider, J. Rambach, and D. Stricker, “Augmented reality based on edge computing using the example of remote live support,” in Industrial Technology (ICIT), 2017 IEEE International Conference on. IEEE, 2017, pp. 1277–1282.

[60] J. Moloney, “Augmented reality visualisation of the built environment to sup- port design decision making,” in Information Visualization, 2006. IV 2006. Tenth International Conference on. IEEE, 2006, pp. 687–692.

[61] S. Henderson and S. Feiner, “Exploring the benefits of augmented reality docu- mentation for maintenance and repair,” IEEE transactions on visualization and computer graphics, vol. 17, no. 10, pp. 1355–1368, 2011.

[62] F. Lamberti, F. Manuri, A. Sanna, G. Paravati, P. Pezzolla, and P. Montuschi, “Challenges, opportunities, and future trends of emerging techniques for augmen- ted reality-based maintenance,” IEEE Transactions on Emerging Topics in Com- puting, vol. 2, no. 4, pp. 411–421, 2014.

[63] H. Flatt, N. Koch, C. R¨ocker, A. G¨unter, and J. Jasperneite, “A context-aware assistance system for maintenance applications in smart factories based on aug- mented reality and indoor localization,” in Emerging Technologies & Factory Au- tomation (ETFA), 2015 IEEE 20th Conference on. IEEE, 2015, pp. 1–4.

[64] V. Havard, D. Baudry, A. Louis, and B. Mazari, “Augmented reality maintenance demonstrator and associated modelling,” in Virtual Reality (VR), 2015 IEEE. IEEE, 2015, pp. 329–330.

[65] P. Hoˇrejˇs´ı, “Augmented reality system for virtual training of parts assembly,” Procedia Engineering, vol. 100, pp. 699–706, 2015.

[66] S. Ong, M. Yuan, and A. Nee, “Augmented reality applications in manufacturing: a survey,” International journal of production research, vol. 46, no. 10, pp. 2707– 2742, 2008.

[67] F. Loch, F. Quint, and I. Brishtel, “Comparing video and augmented reality as- sistance in manual assembly,” in Intelligent Environments (IE), 2016 12th Inter- national Conference on. IEEE, 2016, pp. 147–150.

[68] M. A. Frigo, E. C. da Silva, and G. F. Barbosa, “Augmented reality in aerospace manufacturing: a review,” Journal of Industrial and Intelligent Information, vol. 4, no. 2, 2016.

[69] V. Paelke, “Augmented reality in the smart factory: Supporting workers in an industry 4.0. environment,” in Emerging Technology and Factory Automation (ETFA), 2014 IEEE. IEEE, 2014, pp. 1–4.

[70] M. C. Leu, H. A. ElMaraghy, A. Y. Nee, S. K. Ong, M. Lanzetta, M. Putz, W. Zhu, and A. Bernard, “Cad model based virtual assembly simulation, planning and training,” CIRP Annals, vol. 62, no. 2, pp. 799–822, 2013.

[71] G. Evans, J. Miller, M. I. Pena, A. MacAllister, and E. Winer, “Evaluating the mi- crosoft hololens through an augmented reality assembly application,” in Degraded Environments: Sensing, Processing, and Display 2017, vol. 10197. International Society for Optics and Photonics, 2017, p. 101970V.

[72] X. Wang, S. Ong, and A. Nee, “A comprehensive survey of augmented reality assembly research,” Advances in Manufacturing, vol. 4, no. 1, pp. 1–22, 2016. [73] X. Zhang, N. Navab, and S.-P. Liou, “E-commerce direct marketing using augmen-

ted reality,” in Multimedia and Expo, 2000. ICME 2000. 2000 IEEE International Conference on, vol. 1. IEEE, 2000, pp. 88–91.

[74] S. Hauswiesner, M. Straka, and G. Reitmayr, “Virtual try-on through image-based rendering,” IEEE transactions on visualization and computer graphics, vol. 19,