• Nenhum resultado encontrado

3.3 Valida¸c˜ ao da Abordagem

3.3.6 An´ alise dos Dados

3.3.6.3 An´ alise com Dados de Voz e Imagens

A terceira abordagem de an´alise foi realizada utilizando a combina¸c˜ao dos dados de fala, imagens faciais e imagens da tela. Como os experimentos anteriores apresentaram maior eficiˆencia na utiliza¸c˜ao dos dados de fala em rela¸c˜ao aos dados de imagens faciais ficou determinado como parˆametro para identifica¸c˜ao das opini˜oes dos usu´arios as pala- vras pronunciadas, assim as imagens faciais e de telas foram utilizadas como apoio para enriquecer os dados e melhorar a an´alise e tomada de decis˜ao.

3.3 Valida¸c˜ao da Abordagem 137

A an´alise seguiu os mesmos processos realizados nas abordagens anteriores, ou seja, primeiro foram identificadas palavras de classifica¸c˜ao negativa, seguidas pela palavra de maior classifica¸c˜ao positiva ( ´Otimo) e por ´ultimo analisadas as palavras “Bom”para si- tua¸c˜oes que exigissem tal estudo.

Identificadas as palavras alvo, foi poss´ıvel realizar uma an´alise que come¸cava a partir da palavra pronunciada, que permitia acessar as imagens de tela e, a partir do momento de registro de determinada interface, acessar as imagens faciais.

A estrutura permitiu a cria¸c˜ao de uma ´arvore batizada de “ ´Arvore do Ambiente”. Nessa ´arvore, o n´o raiz ´e a palavra pronunciada pelo participante e guia principal para busca de informa¸c˜oes. A partir do n´o raiz era poss´ıvel acessar as imagens da tela que foram utilizadas por cada participante no momento da pronuncia, instantes antes e instante ap´os. Como o avaliador pode indicar o intervalo de tempo de seu interesse para busca de imagens, para cada imagem pode ser relacionada uma ou v´arias imagens de tela. As imagens da tela eram consideradas outros n´os da ´arvore, este em um segundo n´ıvel, ou de profundidade dois. Selecionado uma imagem e indicando um intervalo de tempo, era poss´ıvel acessar uma s´erie de imagens da face do participante no momento, antes e ap´os determinada tela, estas consideradas n´os folhas da ´arvore. A Figura 54 apresenta o modelo desta abordagem.

3.3 Valida¸c˜ao da Abordagem 138

O parˆametro para busca de imagens de tela e imagens faciais foi o intervalo espe- cificado pelo participante no momento da an´alise. Nesta estrutura, considerando uma palavra pronunciada com 05 minutos e 20 segundos de teste e um valor de intervalo de 6 segundos, o ErgoSV buscava todas as imagens de tela registrada entre o tempo de 05 minutos e 14 segundos at´e o tempo de 05 minutos e 26 segundos. Neste momento n˜ao eram exibidas imagens faciais, esta situa¸c˜ao ocorria ap´os o a sele¸c˜ao de uma imagem e o acionamento do comando de exibi¸c˜ao. Selecionada uma imagem, por exemplo, registrada no momento de 05 minutos e 24 segundos, o ErgoSV seleciona as imagens faciais em uma intervalo de 6 segundos antes e depois do momento da imagem, ou seja, eram exibidas as imagens faciais registradas entre o tempo de 05 minutos e 18 segundos e 05 minutos e 30 segundos. Juntamente com a imagem facial eram exibidos dados tais como percentual de similaridade e hor´ario de registro, funcionalidade esta j´a apresentada nos cap´ıtulos anteriores.

Uma grande contribui¸c˜ao desta an´alise foi a rela¸c˜ao da interface utilizada pelo par- ticipante no momento da rea¸c˜ao e a posi¸c˜ao de seu resto e de seus olhos. Com isso, foi poss´ıvel solucionar, a princ´ıpio, um problema encontrado na abordagem de an´alise utili- zando somente dados de fala a qual obteve ˆexito para identificar interfaces com problemas, mas n˜ao permitia identificar o foco de vis˜ao do usu´ario.

Considerando a posi¸c˜ao do usu´ario em frente da cˆamera e a forma como o mesmo olhava a imagem foi poss´ıvel direcionar qual era o lado, quadrante ou canto para o qual o mesmo olhava no momento da rea¸c˜ao. A Figura 55 apresenta um exemplo no qual ´e exibido uma imagem facial registrada pr´oximo ao momento em que o participante pronunciou a palavra “Regular”. Olhando a imagem facial foi poss´ıvel verificar que o usu´ario olhava para o canto inferior direito da imagem. Portanto, foi poss´ıvel assumir que o conceito aplicado se referia `as funcionalidades ou caracter´ısticas da interface que se encontravam nesta posi¸c˜ao da tela.

Em um segundo exemplo, apresentado na Figura 56, o aplicativo ErgoSV registra a pronuncia da palavra “P´essimo”, a imagem da tela e da face do participante. Nesta imagem ´e poss´ıvel analisar que o usu´ario olha atentamente para o canto esquerdo do monitor/interface. Isto permitiu assumir que o foco da avalia¸c˜ao se referia a recursos localizados nesta posi¸c˜ao.

O tempo da an´alise dos dados dos testes aumentou em rela¸c˜ao `a primeira abordagem de an´alise, por´em manteve-se dentro dos 50% de acr´escimo em rela¸c˜ao ao tempo total de coleta. O aumento do tempo de an´alise deu-se por motivo do maior n´umero de dados

3.3 Valida¸c˜ao da Abordagem 139

Figura 55 – Imagem facial e imagem de tela com poss´ıvel local de insatisfa¸c˜ao

Figura 56 – Imagem facial e imagem de tela com poss´ıvel local de insatisfa¸c˜ao

para estudo, visto que acrescentou-se dados de imagens faciais e os mesmos requereram um tempo para estudo e detec¸c˜ao de informa¸c˜oes relevantes. O tempo dos testes nesta terceira abordagem utilizando palavras pronunciadas, imagens da tela e imagens faciais foi de:

• WCE: 85 minutos;

• WPG 30 minutos;

• PEM 85 minutos;

Por fim, a an´alise dos dados utilizando a combina¸c˜ao de palavras pronunciadas e imagens faciais apoiadas por imagens da tela foi considerada satisfat´oria devido ao fato que proporcionou a maior quantidade de informa¸c˜oes relevantes e permitiu uma an´alise com mais detalhada dos dados. Nesta abordagem foi poss´ıvel identificar a opini˜ao do participante por meio das palavras, quais interfaces ele utilizava no momento e pr´oximo