• Nenhum resultado encontrado

ABORDAGENS DA INTELIGÊNCIA E SUAS IMPLICAÇÕES NA AVALIAÇÃO DO FUNCIONAMENTO

1.1. Abordagem Psicométrica

1.1.1. A inteligência como aptidão singular

As primeiras abordagens da inteligência assumiram-na na sua unicidade, ou seja, buscava-se a inteligência na sua essência e não as várias aptidões que a poderiam diferenciar (Almeida, 2002).

Este movimento assente na unicidade da inteligência teve, no entanto, duas formas diferentes de expressão: (i) os que defendem a integração de funções cognitivas diversas num potencial ou quociente de inteligência (teoria da inteligência compósita), e (ii) os que propõem um elemento básico e comum a todas as atividades cognitivas (teoria do fator geral ou fator g).

1.1.1.1. Teoria da inteligência compósita

As primeiras conceções de inteligência datam do final do século XIX, constituindo Sir Francis Galton um nome de referência ao conceber a capacidade intelectual como uma manifestação das capacidades mais básicas de discriminação sensorial e coordenação motora (Almeida, 1988b). É nesta linha de ideias que Galton constrói uma escala métrica, constituída por 17 variáveis, cujos testes avaliavam traços físicos, acuidade sensorial, força muscular, tempos de reação, entre outras capacidades sensoriomotoras simples. Esta conceção da inteligência, e da sua mensurabilidade, foi continuada e consolidada nos Estados Unidos por de James McKeen Cattell, que utiliza pela primeira vez o termo “teste mental” num artigo publicado em 1890 (Anastasi & Urbina, 2000).

Algumas alterações relevantes ocorreram, entretanto, a partir do trabalho de Alfred Binet e seus colaboradores, em França (Binet & Simon, 1905). Para Binet as diferenças intelectuais dos indivíduos decorrem de funções mentais mais complexas, como a atenção, a linguagem, o raciocínio

Abordagens da Inteligência

ou a memória, distanciando-se dos seus antecessores e sugerindo a avaliação de processos mentais superiores em alternativa às funções sensoriomotoras (Wasserman, 2012). O objetivo educativo de identificar as crianças mal sucedidas na escola por razões intelectuais leva-o à construção, em 1905, da Escala de Inteligência Binet-Simon assumida como um marco histórico na avaliação da inteligência (Almeida & Simões, 2004).

A versão inicial da Escala de Inteligência de Binet-Simon era composta por 30 itens, organizados por ordem crescente de dificuldade, abarcando diferentes tarefas cognitivas, com ênfase especial em julgamento, compreensão e raciocínio. Este instrumento preliminar e experimental não contava ainda com nenhum método objetivo rigoroso para se chegar a uma nota global. Isso só veio a ocorrer na segunda versão, de 1908, onde foram introduzidos novos itens e retirados outros que se apresentavam insatisfatórios, agrupados agora com a proporção de acertos das crianças por faixas etárias, compreendendo idades dos 3 aos 13 anos (Anastasi & Urbina, 2000). Reporta-se a esta versão a introdução do conceito “Idade Mental”, que na comparação com a “Idade Cronológica” permitia afirmar se uma criança apresentava um desenvolvimento mental normal ou se pelo contrário este se caraterizava por um avanço ou um atraso (Almeida, 1988b). Uma terceira versão da escala apareceu em 1911, sem mudanças fundamentais, apenas pequenas revisões que contaram com a introdução de alguns itens em vários níveis etários, tendo sido estendida à idade adulta (Wasserman, 2012).

No entanto, foi nos Estados Unidos, com Louis Terman e seus colaboradores, que a escala de Binet-Simon, agora conhecida por Escala Standford-Binet (Terman, 1916), se destacou enquanto instrumento de avaliação. Por um lado, apresentava-se psicometricamente mais refinado e além disso, foi neste teste que o quociente de inteligência (QI), ou a razão entre a idade mental e a idade cronológica, foi utilizado pela primeira vez (Anastasi & Urbina, 2000). Esta Escala tem sido objeto de várias revisões e na sua revisão de 1960 utilizou-se um método diferente para o cálculo de QI, designado por QI de desvio, que ainda hoje subsiste como uma forma de apresentar os resultados obtidos pelos sujeitos em muitos dos testes de inteligência, ao ponto da inteligência ser sinónimo de QI para uma grande parte do cidadão comum (Branco, 2004).

Em França, os trabalhos de Zazzo e colaboradores conduziram às revisões de 1949 e 1966, passando a designar-se Nova Escala Métrica da Inteligência, que se encontra adaptada e aferida para a população portuguesa (Zazzo, Gilly & Verba-Rad, 1978).

Dentro desta mesma lógica surgiram, mais tarde, as escalas de inteligência propostas por David Wechsler: a WISC (Wechsler Intelligence Scale for Children, 1949), a WAIS (Wechsler Adult Intelligence Scale, 1955) e a WPPSI (Wechsler Preschool and Primary Scale of Intelligence, 1967). Estas três escalas apresentam, entre si, uma acentuada similitude e continuidade concetual e estrutural

Abordagens da Inteligência

(Almeida & Simões, 2004). Versões mais recentes destas escalas foram aferidas para a população portuguesa: a WISC III (Simões, Rocha & Ferreira, 2003), a WPPSI-R (Seabra-Santos, Simões, Ferreira & Rocha, 2003) e a WAIS-III (Ferreira & Rocha, 2008).

Com as escalas de Wechsler, a inteligência é avaliada através de tarefas de índole mais prática ou manipulativa (subtestes de realização) e de tarefas de natureza verbal (subtestes verbais). Apesar da especificidade de cada um dos subtestes, as escalas de Wechsler permitem a obtenção de um quociente de inteligência global (QI), um quociente intelectual verbal (QIV), um quociente intelectual de realização (QIR) e, nas versões mais recentes, três ou quatro índices fatoriais decorrentes da natureza cognitiva de grupos de subtestes. Estes indicadores globais das capacidades intelectuais dos indivíduos têm sido assumidos como os melhores preditores do seu desempenho presente e futuro numa diversidade de contextos de aprendizagem e de realização. A aposta e a familiaridade dos psicólogos com estes quocientes de inteligência justificam a popularidade das escalas de Wechsler – as mais usadas internacionalmente – e as suas sucessivas revisões (Almeida & Simões, 2004; Oakland & Hu, 1992; Kaufman, 2000; Wasserman, 2012).

Podemos então concluir que o trabalho de Binet teve bastante impacto na psicologia, na medida em que a conceção da inteligência como um processo psicológico complexo ou de nível superior, a que não se pode chegar com base em funções sensoriomotoras simples, conduziu à inclusão de itens em escalas de avaliação da inteligência que visam precisamente avaliar essas funções superiores (e.g. compreensão, raciocínio, entre outras). Por sua vez, a perspetiva integral do desenvolvimento e do funcionamento cognitivo do indivíduo justifica a opção por medidas globais do potencial cognitivo, como por exemplo o QI (Anastasi, 1990). Assim, estas escalas supõem a avaliação de uma inteligência compósita, e unitária, integrando um conjunto heterogéneo de funções cognitivas num composto ou numa estrutura funcional comum (Almeida, 1988a).

Para além disso, alguns autores consideram que o trabalho de Alfred Binet marcou profundamente a investigação da inteligência humana ao longo de todo o século XX (e.g. Brody, 2000; Sternberg & Kaufman, 1996; Wasserman, 2012). Ainda que na opinião de Almeida (1988b, p.33), a obra de Binet tenha sido continuada “através de duas vias, nem sempre integradas nem tão pouco pacíficas”: (i) uma primeira relaciona-se com o instrumento por ele elaborado para a avaliação da inteligência, nomeadamente a sua utilização e aperfeiçoamento ao longo dos anos (abordagem psicométrica), (ii) uma segunda, traduzindo mais as suas preocupações de observação e avaliação do comportamento «in loco», no sentido da sua compreensão mais que medida (abordagem desenvolvimentista).

Abordagens da Inteligência

Ao mesmo tempo Binet acentuou o papel da educação no desenvolvimento da inteligência, reforçando a ideia de que a simples constatação de diferenças intelectuais dos sujeitos não tem qualquer interesse se não se fizer acompanhar de uma interpretação compreensiva dessas diferenças e, dentro do possível, intervir no sentido de melhorar essas funções intelectuais. Este aspeto da educabilidade da inteligência só mais tarde vem a ser retomado nas investigações sobre a inteligência.

1.1.1.2. Teoria do fator geral

A par da popularidade das conceções e provas anteriores, importa referir que os avanços na estatística e, sobretudo, nos procedimentos de análise fatorial justificaram o aparecimento de outros modelos teóricos apoiados na análise de dados empíricos. Alguma legitimidade emergia para se buscar o fundamento das correlações entre várias provas e desempenhos cognitivos - os fatores ou estrutura interna da mente humana. Esses fatores ou dimensões internas, assumidos como estruturantes da inteligência humana, seriam responsáveis pelas diferenças interindividuais nas habilidades cognitivas. Nascia, assim, uma abordagem da inteligência designada por fatorial (dimensões internas), psicométrica (testes, medida) ou diferencial (diferenças individuais), designações paralelas para descrever esta nova corrente, que procura, grosso modo, extrair da “soma” de aptidões mentais, aquilo que têm em comum (covariância) (Almeida, 1988a, 2002; Almeida, Guisande, Primi & Ferreira, 2008; Lemos, 2007).

As conceções fatoriais de inteligência que entretanto emergiram podem ser agrupadas em três grandes categorias: (1) as que defendem um fator único ou geral capaz de explicar toda e qualquer atividade cognitiva, como a teoria de Spearman; (2) as que consideram a existência de várias aptidões diferentes na sua natureza e relativamente independentes entre si, como a teoria de Thurnsthone; e, (3) as posições intermédias, que conciliam a singularidade e a pluralidade da inteligência, como são o caso das teorias hierárquicas da inteligência (Almeida et al., 2009). Debrucemo-nos, primeiro, sobre a teoria de Spearman.

A conceção unitária de Spearman

É o psicólogo britânico Charles Spearman (1927) que elabora a primeira teoria de inteligência baseada numa análise estatística dos resultados nos testes, designada por Teoria Bifatorial, que defende que toda a atividade mental se apresenta como expressão de um único fator, comum às diversas tarefas cognitivas, responsável pela maior parte da variância encontrada nos testes – o fator g. Além disso, em cada tarefa coexistiria um fator específico – o fator s – e não generalizável a todas as tarefas (Almeida, 1988b; Almeida & Buela-Casal, 1997; Almeida et al., 2009; Ribeiro, 1998; Sternberg, 1991).

Abordagens da Inteligência

O significado dos dois fatores sofreu um processo evolutivo. Na sua versão original, Spearman interpretava o fator g como uma energia mental essencialmente biológica e inata, enquanto os fatores específicos dependeriam da aprendizagem, ou seja, seriam treináveis e educáveis, e ativados pelo fator

g (Almeida, 1988b, 2002; Ribeiro, 1998). Como todas as atividades intelectuais partilhavam um único

fator comum (g) e os fatores específicos seriam singulares de cada atividade, uma correlação positiva entre dois desempenhos era atribuída ao fator geral. Assim, quanto mais duas atividades estivessem saturadas em g, maior seria a correlação entre elas, ocorrendo a situação inversa entre testes muito específicos (Almeida, 2002; Almeida et al., 2009; Anastasi & Urbina, 2000).

O fator g foi operacionalizado através de três leis de construção de conhecimento: (i) a apreensão de experiências, referindo-se à capacidade para codificar a informação; (ii) a edução de relações, que se prende à capacidade para inferir ou estabelecer relações entre duas ou mais ideias; e (iii) a edução de correlatos, que se traduz na capacidade para tomar a relação inferida e aplicá-la, criando novas ideias (Almeida, 1988b). A maior ou menor destreza nestas três operações justificaria então as diferenças individuais na inteligência geral. Por conseguinte, para avaliar este fator g, Spearman sugere testes que evitem conteúdos reportados a conhecimentos e experiências escolares dos indivíduos ou que envolvam funções cognitivas muito específicas, tais como a perceção ou a memória. Apresenta antes preferência por testes cujos itens envolvam relações abstratas e o raciocínio dedutivo e indutivo. Assim sendo, ainda hoje, os testes de fator g enfatizam o conteúdo figurativo-abstrato dos itens, a novidade da tarefa (itens) e a centração nos processos de raciocínio, como por exemplo, o teste das Matrizes Progressivas de Raven, o teste D48 de Pichot e os testes de Cattell (Almeida, 1994; Almeida et al., 2009).

Se hoje a teoria bifatorial de Spearman já não é genericamente aceite, no entanto, o conceito

fator g ou inteligência geral perdurou até aos nossos dias (Lubinski, 2004). De facto, este conceito

tem sido sucessivamente retomado por vários investigadores nas teorias sobre a estrutura da inteligência, e os testes elaborados para a sua medida ocupam um lugar importante na prática psicológica. Ele tende a traduzir a capacidade básica dos sujeitos em estabelecerem relações lógico- abstratas, mais concretamente em situações novas em que o recurso à aprendizagem e às experiências prévias dos sujeitos é mínimo (Almeida, 1988b, Simões, 2000).