• Nenhum resultado encontrado

CAPÍTULO 7 CONSIDERAÇÕES FINAIS

7.2 Contribuições

A primeira contribuição apontada é a de que vários modelos de SA propostos e desenvolvidos neste trabalho superaram outros sumarizadores para o Português do Brasil, conforme apontando em (1) e (2) a seguir:

1) Considerando-se o SuPor-2, todos os experimentos conduzidos neste trabalho (ver Capítulo 6) indicaram-no como o que produz extratos mais

informativos, incluindo a própria replicação do experimento de Rino et al. (2004) que o comparou a outros oito sistemas. Além disso, o SuPor-2 também superou a utilização individual e combinada de medidas de redes complexas, como foi mostrado na Seção 6.4 e também apontado por Antiqueira et al. (2009). Entretanto, como reportado aqui e em Antiqueira et al., os testes não indicaram significância estatística. A condução de uma avaliação em um corpus maior poderia ser útil nessa comprovação.

Apresenta-se na Tabela 7-1 um quadro listando os sistemas com os quais o SuPor-2 foi comparado. A tabela mostra os métodos de combinação e ponderação explorados em cada um, o número e tipo de características empregadas, uma indicação estimada do custo computacional e os recursos dependentes de língua utilizados.

Sugere-se que o motivo principal do SuPor-2 superar os demais pode ser explicado pelo fato de combinar características diversas de SA por meio de um modelo de aprendizado de máquina Bayesiano, que se evidenciou mais promissor para o ranking de sentenças. Embora tanto o SuPor original quanto o ClassSumm também sigam uma estratégia semelhante, as diferenças principais são:

a) O SuPor utiliza a representação binária das características, empobrecendo o poder de decisão do modelo de aprendizado;

b) O ClassSumm não emprega características mais elaboradas como o SuPor-2 e o SuPor, que mapeiam métodos completos de SA como o de Cadeias Lexicais e Mapa de Relacionamentos em características. Além disso, o ClassSumm adota um processo de discretização de características antes da utilização do classificador Naïve-Bayes. No SuPor-2, essa discretização não é necessária pois o classificador trata características numéricas diretamente.

Tabela 7-1 – Quadro comparativo de sistemas de SA para o Português do Brasil Sistema Modelo de Combinação de Características Exigência

de Treino Características Número de Características Tipo das Custo

30 Computacional Recursos Dependentes de Língua Natural

SuPor-2 Flexible-Bayes Sim 11 Multinominais Numéricas e Médio

Stoplist Léxico Stemmer Etiquetador morfossintático Thesaurus CN-Voting (Antiqueira et

al. 2009) Votação Não 14 Numéricas Médio

Stoplist Stemmer

SuPor (Módolo

2003) Naïve-Bayes Sim 11 Binárias Médio

Stoplist Léxico Stemmer Etiquetador morfossintático Thesaurus ClassSumm (Larocca Neto

et al. 2002) Naïve-Bayes Sim 13

Numéricas e Multinominais Médio Stoplist Stemmer Etiquetador morfossintático Lista de palavras indicativas SABio (Orrú et al. 2006) Rede Neural

Multicamada Sim 7 Multinominais Alto

Stoplist Stemmer Lista de palavras indicativas TF-ISF- Summ (Larocca Neto et al. 2000)

Não há Não 1 Numérica Baixo StemmerStoplist

GistSumm (Pardo et al.

2003) Não há Não 1 Numérica Baixo

Stoplist

Léxico NeuralSumm

(Pardo 2003) Rede Neural SOM Sim 8 Multinominais Alto

Stoplist Stemmer Lista de palavras indicativas

Cabe apontar que todos os sistemas comparados apresentam certo grau de dependência de língua natural. Os dependem menos são os que demandam apenas recursos como stoplist e stemmer ou Léxico, como o GistSumm e o TF-ISF. Já o SuPor, SuPor-2 e ClassSumm dependem de mais recursos, como por exemplo um etiquetador morfossintático. Entretanto, a dependência encontra-se apenas nos recursos, amplamente disponíveis para o Inglês e cada vez mais sendo disponibilizados para outras línguas.

2) Uma outra contribuição com relação à evolução de índices foi a construção dos modelos baseados no TextRank, descritos na Seção 5.2. Através da

30

incorporação de recursos linguísticos relativamente simples, as versões originais propostas por Mihalcea (2005) foram superadas, conforme se mostrou na Seção 6.3. Além disso, Antiqueira et al. (2009) também reportam que essas duas versões superaram o melhor modelo de redes complexas numa avaliação conduzida sobre o corpus TeMário-2003 e com a ROUGE-1 como métrica em foco. Entretanto, não foram conduzidos testes de significância estatística.

Agrupam-se ainda contribuições adicionais deste trabalho de mestrado em três categorias: implementações, contribuições teóricas e publicações acadêmicas.

a) Implementações

• Desenvolvimento do SuPor-2 a partir de uma reengenharia sobre o SuPor original e acoplamento à ferramenta WEKA, em linguagem Object Pascal (Delphi). Esse sumarizador foi implementado como um software independente, podendo ser disponibilizado para utilização;

• Desenvolvimento de modelos aperfeiçoados do TextRank, em linguagem Object Pascal (Delphi). Ambos os modelos foram desenvolvidos como softwares independentes e podem ser disponibilizados para utilização; • Desenvolvimento de modelos de características combinadas do SuPor-2 e

da área de Redes Complexas, em linguagem Perl. Em função da dependência do cálculo das medidas de redes complexas, não disponíveis livremente, a distribuição e utilização desses sumarizadores é restrita; • Desenvolvimento do SuPor-2 Fuzzy em linguagem Java e Object Pascal

(Delphi). O software é independente e pode ser disponibilizado para utilização.

b) Contribuições Teóricas

• A proposição do modelo de mapeamento dos métodos e medidas originalmente utilizadas no SuPor em características numéricas e multinomiais que vieram a ser utilizadas no SuPor-2 e mais posteriormente no SuPor-2 Fuzzy de forma adaptada;

• A exploração e proposição para SA de métodos de seleção automática de características;

• A exploração e construção de modelos de SA utilizando grandes números de características. Pelo nosso conhecimento, não há trabalho que tenha explorado além de 37 características;

• A proposição de um modelo de ranking nebuloso de sentenças.

c) Publicações acadêmicas

• Desenvolvimento do SuPor-2 (Leite e Rino 2006);

• Desenvolvimento dos modelos baseados no TextRank (Leite et al. 2007); • Exploração combinada de características do SuPor-2 e da área Redes

Complexas (Leite e Rino 2008);

• Desenvolvimento do SuPor-2 Fuzzy (Leite e Rino 2009).