• Nenhum resultado encontrado

Quando o usuário sinaliza o fim da conversa é dado início ao fluxo “Despedida-pesquisa” como descrito na seção 3.1.5.4, o agente realiza a seguinte pergunta ao usuário “Antes de ir embora você gostaria de avaliar nossa conversa?”, então o usuário pode sinalizar textualmente ao chatbot sua intenção. A tabela 5 expõem a quantidade de usuários para cada situação, sendo que dos 74 usuários 26 conduziram a conversa até o momento da avaliação.

Tabela 5 – Participação dos usuários na avaliação

Opção Nº de usuários

Participaram 16

Não participaram 5

Saídas 5

Fonte: do autor.

A figura 21 mostra graficamente os resultados expostos na tabela 5. Dentre os 26 usuários que entraram no fluxo “Despedida-pesquisa”, 61.53% optaram por continuar a conversa fornecer respostas sobre o desempenho do robô, 19.23% escolheram não participar e 19.23% en- cerram a sessão com o sistema.

O número de desistência neste fluxo pode ser explicado pela au- sência de ferramentas auxiliares nas respostas, como por exemplo ata- lhos (com respostas prontas de “sim” ou “não”) que facilitem as respos- tas ao cliente. A opção de não participar da pesquisa busca fornecer

61

Figura 21 – Participação dos usuários na avaliação

61.53% 19.23% 19.23% Participaram Não Participaram Saídas Fonte: do autor.

ao usuário uma melhor experiência de utilização do agente.

A figura 22, mostra as respostas dos usuários quando realizada a seguinte questão “Você considera que nossa conversa esclareceu suas dúvidas?”, sendo 56.25% (9 usuários) responderam que sim, 25% (4 usuários) forneceram a resposta “não” e 18.75% (3 usuários) forneceram outro tipo de resposta, durante esta estrutura não aconteceu nenhuma desistência ou encerramento da sessão com o agente. A categoria “ou- tros” indica outras respostas que não estavam previstas ou que não abrangem nenhum dos outros dois tipos esperados, como por exemplo “mais ou menos”.

Esta pergunta está ligada com as dúvidas do usuário sobre o e- bussiness em que a plataforma está inserida, sendo mais um método para avaliar a base de dados do agente. Sendo assim, podemos obser- var que o fluxo “Perguntas-frequentes-extras” descrito na seção 3.1.5.2 possuiu respostas para satisfazer mais da metade dos usuários e me- nos da metade dos usuários em algum momento da conversa se sentiu insatisfeito com as respostas fornecidas pelo agente.

A segunda pergunta foi feita aos usuários pelo agente da se- guinte maneira “Eu tive uma conversa semelhante a uma conversação

62

Figura 22 – “A conversa esclareceu suas dúvidas?”

56.25% 25% 18.75% Sim Não Outros Fonte: do autor.

humana?”. A intenção desta pergunta é compreender e analisar a opi- nião dos usuários quanto a maneira como foram escritas as respostas, se o agente possui o comportamento humano satisfatório.

A figura 23, mostra as respostas dos usuários para a segunda pergunta, 56,25% (9 usuários) responderam “sim”, 37.5% (6 usuários) informaram que “não” e 6.25% (1 usuário) responderam de outra ma- neira, assim como na pergunta 1 não houve encerramento da sessão com o agente. O resultado deste questionamento indica que o robô teve um comportamento semelhante ao humano, quanto ao nível de insatisfação dos usuários pode ser explicado pela possível ausência de conteúdo e qualidade das respostas fornecidas pelo agente.

Reescrever as respostas fornecidas pelo agente para aprimorar conversação podem melhorar os resultados, assim como a criação de fluxos adicionais na base de dados do chatbot também podem melhorar o desempenho do agente.

A terceira pergunta foi feita ao usuário da seguinte maneira “Mi- nhas respostas foram coerentes?”. O objetivo desta pergunta era avaliar o treinamento do agente, analisar se as respostas fornecidas pelo agente estavam de acordo com a pergunta enviada pelo usuário. A figura 24

63

Figura 23 – “A conversa foi próxima de uma conversa humana?”

56.25% 37.5% 6.25% Sim Não Outros Fonte: do autor.

mostra que 43.75% (7 usuários) responderam “sim”, 31.25% (5 usuários) informaram que as respostas “não” foram coerentes e 25% (4 usuários) responderam de outras maneiras.

Como pode ser analisado, a maior parte dos usuários não es- tão satisfeitos com as respostas fornecidas, devido ao curto período de testes, tempo de treinamento do agente e o número de usuários que tiveram acesso a plataforma, podem ser o motivo do alto número de respostas incoerentes. O desenvolvimento de novas estruturas de con- versação associado a um treinamento contínuo do agente, fornecerão ao agente a capacidade de responder aos usuários de maneira satisfatória. Foram criadas estruturas capazes de registrar comportamentos que refletem a satisfação ou insatisfação do usuário, as estruturas são “chatbot.bom-agente” e “chatbot.agente-ruim”. As estruturas mencio- nadas registram elogios e críticas, como por exemplo “boa conversa”, “inteligente”, “você é bom”, “está ruim”, “você é ruim”, “está errado”. O objetivo de estruturas deste tipo é obter outros tipos de avaliações do usuário, não apenas do questionário final. Analisando históricos de conversas foi constatado que 1 usuário avaliou negativamente e 2 usuários avaliaram positivamente.

64

Figura 24 – “Minhas respostas foram coerentes?”

43.75% 31.25% 25% Sim Não Outros Fonte: do autor.

65

5 CONSIDERAÇÕES FINAIS

A utilização de chatbots para e-business podem gerar benefícios, como redução no tempo de atendimento e nos custos. No desenvolvi- mento do agente capaz de responder aos questionamentos do usuário, a escolha de uma ferramenta capaz de atender os requisitos é de fun- damental importância.

A arquitetura desenvolvida para a construção do agente cumpriu seu propósito. Com a associação do Botman, Laravel, DialogFlow e o desenvolvimento da interface de conversação, os usuários puderam estabelecer uma comunicação estável com o agente desenvolvido e obter respostas de maneira automática.

DialogFlow é uma ferramenta que teve destaque por atender os requisitos do sistema. Através dos históricos de conversação foi pos- sível obter resultados sobre a usabilidade dos usuários e através das plataforma foi possível treinar o chatbot desenvolvido e desta maneira expandir sua base de dados.

O contexto de conversação baseado nas perguntas frequentes do e-business foi elaborado com sucesso, também foram desenvolvidos ou- tros contextos que serviram de suporte ao agente para manter diálogos mais complexos e contínuos.

Ao analisar as estruturas mais acessadas pelo usuário, verificou- se que a estrutura inicial de conversação e a estrutura de resposta pa- drão possuem uma maior quantidade de acessos. Os resultados de aces- sos das estruturas do chatbot, demonstram a importância da construção dos fluxos de conversas do agente.

O questionário com perguntas dicotômicas realizado no final da conversa, permitiu analisar a opinião dos usuários e obter uma avaliação do chatbot quanto à sua base de dados, suas estruturas de conversação, sua capacidade de determinar e fornecer adequadamente as respostas usuário.

Por fim, os resultados obtidos demonstram que o agente pode ser melhorado através da expansão da base de dados, realizando análises nos históricos de conversação, reescrevendo e simplificando as respostas fornecidas pela plataforma e executando treinamentos constantes para preparar o chatbot, fornecendo melhores respostas aos utilizadores.

66

Documentos relacionados