• Nenhum resultado encontrado

tribuição síncrona e assíncrona

Passo 2: Rejeita-se a hipótese nula �0 se o teste estatístico ⊘ valor crítico ou se p-value ⊘ Ð (nível de signiĄcância) Quanto mais baixo é o valor de Ð, mais forte é a

8.4.2 Atuação do D-MA-Draughts em Disputas

Após a deĄnição da melhor dinâmica de atuação em partidas e da obtenção da versão Ąnal do ADABA, foi criada a nova versão do sistema multiagente D-MA-Draughts. Neste caso, tal sistema passa a operar com o algoritmo de alto desempenho ADABA proposto neste trabalho. O IIGA da nova versão do D-MA-Draughts corresponde ao ADABA- Draughts (com o ADABA-V3 dos experimentos da seção 8.3). Os agentes de Ąnal de jogo foram treinados segundo o processo descrito na seção 7.4.

Com a intenção de veriĄcar o desempenho do sistema multiagente D-MA-Draughts atuando em um problema prático, um torneio foi realizado entre ele e sua versão mo- noagente, ADABA-Draughts. A conĄguração deste torneio foi a mesma aplicada nos experimentos da seção 8.3.2. Desta forma, foram executados 40 jogos agrupados em duas rodadas, sendo que na primeira (Rodada I) o D-MA-Draughts atou com peças pretas e o ADABA-Draughts com peças vermelhas. Na Rodada II, a situação foi invertida. A estratégia de busca foi ID com jogadas limitadas a 20 segundos. A Tabela 20 apresenta as taxas de vitória, derrota e empate obtidas pelo D-MA-Draughts. Além disso, a Tabela 21 apresenta as taxas de correspondência com o ŞconselheiroŤ Cake.

Na Tabela 20 observa-se que jogando com peças pretas (Rodada I) o D-MA-Draughts apresentou 70% de taxa de vitória e 5% de taxa de derrota. Na Rodada II, ele obteve 10% de vitória e 70% de derrota. Neste sentido, observa-se que tanto o D-MA-Draughts quanto o ADABA-Draughts tiveram desempenho similar jogando com peças pretas. Na atuação com peças vermelhas, o D-MA-Draughts se saiu um pouco melhor que o ADABA- Draughts na situação equivalente. O reĆexo deste resultado é observado na Tabela 21 que

Tabela 20 Ű Taxas de vitória obtidas pela nova versão do D-MA-Draughts versus o mo- noagente ADABA-Draughts

Rodada Vitórias Empates Derrotas

I 70% 25% 5%

II 10% 20% 70%

Tabela 21 Ű Taxas de coincidência de movimentos com o Cake obtidos nas partidas do torneio apresentado na Tabela 20

Posição do agente no jogo D-MA-Draughts ADABA-Draughts

Peças Pretas 53,25% 44,64%

Peças Vermelhas 36,95% 39,03%

mostra que, jogando com peças pretas, o D-MA-Draughts apresentou uma taxa de cor- respondência igual a 53,25% com o Cake e o ADABA-Draughts 44,64%. Com peças vermelhas o D-MA-Draughts teve 36.95% e o ADABA-Draughts 39.03%. De fato, o re- sultado deste torneio foi muito equilibrado para ambos os jogadores. O motivo disso é que o D-MA-Draughts parte da mesma rede neural que o ADABA-Draughts. Neste sentido, até que a partida atinja o nível de Ąnal de jogo, é como se os agentes estivessem jogando contra si próprio. A partir do estado de Ąnal de jogo, conĄgurado com 12 peças ou menos, o D-MA-Draughts inicia sua atuação com a dinâmica DII (seção 7.3.2) pressionando o seu adversário. Por esta razão, houve um número signiĄcativo de empates: 25% na Rodada I e 20% na Rodada II.

8.5

Considerações Finais

Este Capítulo apresentou todos os experimentos realizados no âmbito deste trabalho de doutorado. Para isso, foram estabelecidas quatro etapas: 1) comparação do desempe- nho das abordagens síncrona e assíncrona - representadas pelas versões distribuídas do algoritmo Alfa-Beta YBWC (síncrona) e APHID (assíncrona) - em um problema prático; 2) avaliação do desempenho do algoritmo proposto neste trabalho, o ADABA; 3) avaliação do monoagente baseado no algoritmo proposto, o ADABA-Draughts; 4) avaliação SMA D-MA-Draughts.

Na primeira etapa, foram realizados experimentos com o agente D-VisionDraughts que atua em ambiente de alto desempenho utilizando a versão com abordagem síncrona de paralelismo YBWC, e o agente APHID-Draughts, desenvolvido no contexto deste tra- balho. A implementação e os experimentos foram realizados em arquitetura de memória distribuída, que, sem dúvidas, representa um desaĄo para a distribuição do Alfa-Beta. De fato, a principal intenção foi comparar o desempenho das abordagens síncrona e as-

8.5. Considerações Finais 177

síncrona de paralelismo aplicadas a um mesmo problema prático. Nesta direção, foram considerados os seguintes parâmetros: tempo de treinamento, taxas de vitória e taxa de coincidência entre a escolha de movimentos executados por cada agente (APHID-Draughts e D-VisionDraughts) e aqueles que o ŞconselheiroŤ Cake realizaria nas mesmas situações. Os resultados obtidos mostraram que a abordagem assíncrona é mais adequada que a ver- são síncrona para agentes de Damas quando implementadas em arquitetura de memória distribuída.

Na segunda etapa, foi avaliada a proposta da nova versão distribuída do Alfa-Beta, o ADABA. Para isso, o ADABA foi comparado com o APHID. Para cada algoritmo foi estabelecida três versões (V1, V2 e V3). No caso do ADABA, o objetivo destas versões foi avaliar a evolução das contribuições inseridas no algoritmo proposto. No APHID, a intenção foi veriĄcar o comportamento do algoritmo ao variar o parâmetro de abertura da janela de busca que é determinado de modo empírico e manual. Os resultados mostraram que, de fato, a política do APHID em determinar o parâmetro de abertura da janela de busca de modo empírico e manual representa uma fragilidade. Neste contexto, se este valor é grande (como ocorreu com o APHID-V2), corre-se o risco de impactar na velocidade do algoritmo agravando a sobrecarga de busca. Por outro lado, se o valor é muito pequeno (como o APHID-V3), perde-se com frequência a solução ótima, o que prejudica o desempenho global do algoritmo de busca em relação à qualidade da solução. O ADABA apresentou bons resultados em todas as suas versões, sendo que a sua versão Ąnal (ADABA-V3) apresentou um bom equilíbrio entre a sobrecarga de busca, tempo de execução e qualidade da solução da busca. Além disso, a política automática de formação do parâmetro de abertura da janela de busca proposta pelo ADABA eliminou a fragilidade identiĄcada no APHID. Nos experimentos também foi possível observar que o bom desempenho de uma versão distribuída do Alfa-Beta não pode ser atribuída apenas à aceleração do algoritmo, sendo necessário haver um equilíbrio com a qualidade da solução. Na terceira etapa, o desempenho dos algoritmos ADABA e APHID foram avaliados em uma aplicação prática, isto é, na obtenção de agentes jogadores de Damas para dis- putarem torneios. Assim, houve o treinamento das redes MLP dos agentes envolvidos nos experimentos. Na sequência, os agentes treinados baseados no ADABA (ADABA- Draughts) disputaram torneios contra o APHID-Draughts. Os resultados mostraram que a versão Ąnal do ADABA (V3) apresentou bom desempenho em relação ao tempo de treinamento do agente jogador e uma taxa de vitórias bem elevada nas partidas que dis- putou contra o APHID. Tal fato demonstra que as contribuições inseridas no ADABA em conjunto produziram uma MLP de qualidade e permitiram que o agente realizasse, na prática, tomadas de decisões mais acuradas (este fato pode ser notado pela elevada taxa de coincidência do jogador baseado no ADABA-V3 com o renomado jogador Cake).

A última etapa dos experimentos avaliou o desempenho do SMA D-MA-Draughts. Primeiramente, foi deĄnida a melhor dinâmica de atuação em partidas. Os resultados

mostraram que a dinâmica em que houve maior cooperação entre os agentes, a DII, apre- sentou melhor desempenho. Tal situação foi observada mesmo em situações onde, para um mesmo estado de tabuleiro, a DII atuou representando as peças pretas ou vermelhas. Este fato é justiĄcado, pois após alguns movimentos outro agente pode representar me- lhor o perĄl do tabuleiro e tomar a ação mais adequada. Portanto, a dinâmica DII foi a adotada na nova versão do D-MA-Draughts. Na sequência, foi avaliado o desempenho do D-MA-Draughts em um torneio contra sua versão monoagente. Os resultados mostraram um equilíbrio entre estes jogadores, visto que, até atingir o estado de Ąnal de jogo, ambos agentes atuam com a mesma rede MLP.

179

Capítulo

9

Conclusão