• Nenhum resultado encontrado

2. Conexionismo, probabilidades & chunking no processo de aprendizagem de línguas

2.4 Probabilidades e o constante cálculo de incertezas.

Os modelos sintático-analíticos de processamento da linguagem não dão conta do uso (performance) da língua em situações reais. Obviamente, como explicação de um sistema abstrato e idealizado (i.e., puramente lingüístico), baseado em regras da lógica, especializado e independente, tais modelos cumprem a sua tarefa. No entanto, estas teorizações não parecem levar em conta a realidade dos processos cognitivos globais inerentes à aquisição e o uso de línguas naturais. Tais modelos não se adequam à realidade psicológica (e neurobiológica) evidenciada no uso real da linguagem humana, especialmente no que concerne à capacidade de nossos sistemas de processamento e

representação. Nos sistemas formais, baseados em regras, o processamento vai ficando cada vez mais lento e distante da realidade à medida que o processamento lingüístico fica mais complexo (ou seja, à medida que mais restrições são impostas ao sistema).

Tal constatação decorre do provável fato de que o uso natural, ou automatizado, da língua não seja analítico, mas esteja calcado na memória e em processos probabilísticos de inferência. Utilizamos pedaços (chunks) de linguagem na produção lingüística, semelhante ao que ocorre na montagem de um quebra-cabeças. Tais chunks são resultado da organização cognitiva de rotinas altamente freqüentes. A idiomaticidade da língua decorre, justamente, da boa utilização destes pedaços lingüísticos convencionalizados. Seu uso implica, acima de tudo, na diminuição da carga de processamento cognitivo. Ou seja, quanto mais o aparato mental se detém em análises lingüísticas, mais lento é o processamento cognitivo da linguagem, ao passo que quanto mais uso se faz de fórmulas lexicais, mais fácil e rápido, portanto automático, torna-se o processamento da língua (esta discussão será retomada mais adiante).

Talvez um dos motivos da discrepância entre os modelos logicistas para o comportamento humano idealizado (historicamente conhecidos na lingüística como langue ou competência) e o comportamento mundano humano (parole ou desempenho) seja o fato de que nosso sistema cognitivo não seja regido por um sistema lógico. Como destacam Oaksford & Chater (2007), há 2 mil anos e meio o mundo ocidental acredita que a mente (ou nossa cognição) é regida pelos mesmos princípios da lógica. Talvez não sejamos assim tão racionais! Entre o sim e o não existe um vão! Ou talvez seja preciso entender que a razão precisa levar em conta (e seja permanentemente guiada por) um cálculo constante de incertezas, o que não é compatível com os sistemas de lógica tradicionais, baseados no silogismo aristotélico. Nos estudos da linguagem, tal concepção logicista da mente se refletiu mais claramente na sintaxe gerativista e na semântica formal (este último com os conhecidos cursos envolvendo Cálculo de Predicados).

As ‘regras’ gramaticais podem ser apenas probabilidades lingüísticas de uso, como colocam com bastante propriedade Chater & Manning (2006). Tais regras envolveriam o que é linguisticamente provável e não apenas o que seria linguisticamente possível.

Por exemplo, a questão da resolução de ambigüidades no parsing sintático sempre foi visto na psicolingüística tradicional como sendo algo inerente à estrutura lingüística. Veja os exemplos abaixo extraídos de Chater & Manning (2006:336), com suas respectivas traduções em português:

a) the girl saw the boy with a telescope (a garota viu o garoto com um telescópio) b) the girl saw the boy with a book (a garota viu o garoto com um livro)

c) the girl hit the boy with a book (a garota acertou o garoto com um livro)

O exemplo fornecido em a) contém uma ambigüidade clara que poderia ser facilmente resolvida levando-se em conta outras informações, de natureza não-lingüística (ou seja, aumentando o contexto ao observarmos o acontecimento e as pessoas envolvidas). Mesmo assim, nos limitando somente a esta pobre informação estrutural, em termos probabilísticos pode-se resolver esta ambigüidade levando-se em conta apenas o fator complexidade estrutural. A probabilidade de interpretação é maior para o sentido que envolve o numero menor de “galhos” na arvore gerativista ou que possua uma “regra sintática” a menos. Assim, para as duas possibilidades de interpretação desta frase descontextualizada, 1) se o telescópio liga-se ao sintagma verbal (ou seja, o ato de ver utiliza um telescópio) ou 2) ao sintagma nominal objeto (se o garoto carrega um telescópio), a primeira seria probabilisticamente a mais provável por ser menor a distancia entre o funtor e seu respectivo argumento (portanto uma relação menos complexa). O’Grady (2003) chama isto de ‘eficiência’, ou seja, um processo cognitivo de redução de armazenamento para lidar com dependências estruturais de varias ordens, como destacado anteriormente nesta tese. A incerteza é algo inerente aos sistemas complexos, e não seria diferente na linguagem. O cálculo de incertezas, portanto, precisa ser probabilístico e calcado tanto em freqüência de ocorrência como em eficiência (a famosa ‘lei do menor esforço’). Esta estratégia probabilística de eficiência nada mais é do que um processo de chunking.

No exemplo em b) não há, a principio, ambigüidade, pois livros, diferentemente de telescópios, não são instrumentos usados para avistar algo, embora possamos, metaforicamente, dizer que “podemos ver o mundo com um livro”. A situação torna a se reverter quando mudamos o verbo, no exemplo da frase c), ou seja, um livro pode ser

um instrumento usado para bater em alguém. Gramáticas lexicalizadas, que levam em conta a freqüência de co-ocorrência de palavras (por exemplo, se na maioria das vezes em que ocorre a ação de ver algo o fazemos “com-um-telescópio” ou “com-um-livro”) são uma alternativa bastante promissora na resolução de problemas de parsing desta natureza, como sugerem Chater & Manning (2006:337-338). Tal cálculo de contingência, ou probabilidades trasicionais, como vemos no clássico estudo conexionista de Elman sobre identificação de palavras (Finding structure in time, 1990), é uma fonte de informação importante nos processos de aprendizagem implícita de uma língua (como veremos mais adiante). Este mesmo raciocínio está presente nas teorizações construcionistas ou modelos de linguagem baseados no uso. Ou seja, uma simples interpretação do sentido mais plausível expresso nas frases em a), b) e c) envolve nosso conhecimento de mundo, a compreensão do meio e contextos sociais, questões pragmáticas, etc. E empregamos, implícita e probabilisticamente, todo estes tipos de conhecimentos na aprendizagem/uso de uma língua.

O cálculo estatístico de contingência de palavras (ou, “diga-me com quem tu andas e direi quem tu és”) é uma das principais características da cognição humana. Como dito anteriormente, a linguagem é um sistema complexo adaptativo (altamente dinâmico). A competição de informações oriundas dos vários níveis da organização do sistema lingüístico (fonotático, lexical, morfossintático, discursivo e pragmático) é constante. Por exemplo, segundo Ellis (2002a), nosso sistema cognitivo é perito em calcular qual alternativa se mostra mais adequada num determinado contexto de uso ao constantemente realizar identificação de padrões seqüenciais no insumo e suas probabilidades (como nos exemplos de parsing mostrados acima).

Inspirado em Ellis (2003), adaptei para o português o exemplo a seguir: qual seria a próxima letra numa frase em português que comece com “T....” ? Nativos e não nativos proficientes sabem que uma vogal é bem mais provável do que uma consoante, e, dentre as consoantes, r é infinitamente mais provável do que as demais (sendo x, z, p, e outras, impossíveis). Qual a primeira palavra provável na frase acima? Possivelmente um verbo, talvez ter, já que normalmente um artigo definido ou indefinido precede um substantivo. Tais ‘pistas’ probabilísticas nos ajudam, implicitamente, no uso da língua em nosso dia-a-dia. Pois bem, se “Ter...” começa a frase, como ela continua? Com um

artigo ou substantivo, muito provavelmente. Talvez uma preposição. Dificilmente um outro verbo ou um adjetivo. Falantes nativos e proficientes conhecem uma quantidade tremenda de seqüências lingüísticas assim, em todos os níveis. Nós aprendemos inconscientemente estas regularidades presentes no insumo, aprendemos as probabilidades seqüenciais da língua no nível do fonema/letra, palavra e sentença, como destaca Ellis (2003:75). Como comentado na introdução deste manuscrito, estes efeitos de freqüência e recência são importantes diante do caráter gradual e cumulativo da aquisição de uma língua, desde bigramas e trigramas (i.e., o que entendemos como conhecimentos fonotático e ortográfico), passando pelas raízes de palavras, sufixos e prefixos (a morfologia), construções mais complexas como sintagmas verbais/nominais (i.e., a sintaxe) e o discurso; ou seja, dos tokens aos types30 ao sistema complexo que é a língua (ELLIS, no prelo; 2002a, 2002b ).