• Nenhum resultado encontrado

CAPÍTULO I – AVALIAÇÃO: VELHAS E NOVAS CONTRADIÇÕES

1.2 Níveis da avaliação educacional do sistema educativo

1.2.3 Avaliação externa (macro) como campo de investigação

1.2.3.3 Reformulação do Saeb

Sob a presidência de Luiz Inácio Lula da Silva (2003/2011), por meio da Portaria Ministerial n. 931, de 21 de março de 2005, o Saeb foi reestruturado. Ele passa a ser composto por duas avaliações em larga escala: a Avaliação Nacional da Educação Básica (Aneb) e a Avaliação Nacional do Rendimento Escolar (Anresc), as quais são aplicadas bienalmente e envolvem testes padronizados de proficiência em Língua Portuguesa e Matemática. No quadro a seguir apresentamos as características particulares de cada avaliação.

Quadro 2. Nova organização do Sistema de Avaliação da Educação Básica

Fonte: Elaboração da autora.

As características, o planejamento e a organização tanto da Aneb quanto da Anresc podem ser redefinidos, visto que ambas são desenvolvidas pelo Inep/MEC, por meio da Diretoria de Avaliação da Educação Básica (Daeb), a qual deverá:

Art. 3º. I – definir os objetivos específicos de cada pesquisa a ser realizada, os instrumentos a serem utilizados, as séries e disciplinas, bem como as competências e habilidades a serem avaliadas;

II – definir a abrangência, mecanismos e procedimentos de execução da pesquisa;

IV – definir as estratégias para disseminação dos resultados (BRASIL, 2005, grifos nossos).

Ao analisarmos a organização e os objetivos das avaliações na Portaria Ministerial n. 931, são identificadas mudanças significativas, uma vez que a Anresc

oportuniza informações sistemáticas sobre as unidades escolares, permite a divulgação dos resultados particulares e possibilita e instiga a comparação em diferentes escalas, especialmente entre instituições, municípios e estados. Assim, a avaliação em larga escala no Brasil assume uma nova estrutura ao ser direcionada à escola e objetivar a divulgação dos resultados. Estão dadas as condições para a publicação de dados não apenas para a União e os estados, como também por municípios e por escola em escala nacional, tomando como base os testes estandardizados dos estudantes.

Por conseguinte, até aquele momento as avaliações ocorriam por amostragem, mas, com a Prova Brasil (ANRESC, 2005), torna-se possível avaliar cada escola e unidade da federação, comparar e ranquear os resultados das instituições de ensino. Logo após, em 2007, essa organização foi completada com a constituição do Índice de Desenvolvimento da Educação Básica (Ideb). Na esteira dessa lógica, consideramos que é no governo Lula que temos efetivamente uma relação entre resultados dos testes estandardizados, processos de prestação de contas e condições para a responsabilização (Cf. Capítulo II).

No discurso oficial, na palavra de Reynaldo Fernandes, então presidente do Inep em 2007, os indicadores de desempenho que são utilizados no Ideb para monitorar o sistema no país são de duas ordens: indicadores de fluxo (promoção, repetência e evasão) e pontuações em exames padronizados (Aneb e Anresc)35 (FERNANDES, 2007b). Essas duas dimensões interferem diretamente nos resultados obtidos no Índice, por isso ele afirma que o Ideb depende do acesso da criança à escola; do não desperdício de tempo com repetências ou abandono da escola; e, ao final de tudo, da aprendizagem.

Partindo dessa premissa, Fernandes (2007b) analisa o panorama do Brasil e avalia que o acesso à escola foi praticamente universalizado, mas o grande problema residia ainda na taxa de permanência na escola e nos resultados dos testes.

35 Em relação às avaliações dos anos iniciais da Educação Básica promovidas pelo governo federal temos,

a partir de abril de 2008, a implementação da Provinha Brasil, que tem como objetivo, segundo os dados do site do Ministério da Educação, avaliar, acompanhar e melhorar a qualidade da alfabetização e do letramento dos alunos que se encontram no segundo ano do Ensino Fundamental. Para tanto, o MEC lançou uma Matriz de Referência para Avaliação da Alfabetização e do Letramento Inicial, que são definidas a partir das habilidades de alfabetização e letramento. Essa proposta de avaliação externa limita a entrega dos resultados ao próprio professor alfabetizador.

Na relação entre as duas ordens (fluxo e proficiência), uma preocupação do Inep ao definir o cálculo do Ideb se referia à “[...] ‘taxa de troca’ entre probabilidade de aprovação e proficiências dos estudantes. Ou seja, o indicador torna claro o quanto se está disposto a perder na pontuação média do teste padronizado para se obter determinado aumento na taxa média de aprovação” (FERNANDES, 2007a, p.8, grifos nossos). Na lógica de Fernandes, o índice permite ver quem mantém mais o aluno na escola, seja qual for o seu grau de aprendizagem, o que por vezes faz o índice diminuir em uma dimensão e aumentar em outra. Enfatiza-se ainda que, para melhorar o Ideb, a escola deve garantir bons resultados nas duas dimensões (fluxo e aprendizado).

Quanto à questão de recursos destinados à escola, a ideia de relacionar o Índice a esse fator estava presente desde o início do planejamento do Ideb, como obervamos na defesa de Fernandes (2007a). Por exemplo, as autoridades poderiam se valer do Índice para promover financiamentos específicos às escolas e/ou redes com dificuldades e, ainda, monitorar aqueles que receberam recursos para saber se estão melhorando o desempenho; conclui-se, assim, que “[...] o financiador poderia estipular previamente o avanço desejado no indicador como contrapartida para a liberação de recursos” (FERNANDES, 2007a, p.8 – nota de rodapé).

Essa concepção aponta para consequências preocupantes da condução de políticas públicas da educação e na relação destas com o direcionamento do ideário social sobre a educação, pois sabemos que esta depende de uma mudança estrutural; assim, não basta fornecer uma pequena verba à escola e esperar uma educação de qualidade, a não ser que os sujeitos dessa instituição intensifiquem seu trabalho e se desdobrem para isso (OLIVEIRA, 2004). De fato, a condução das avaliações em larga escala a partir das concepções que envolveram o Índice ressalta a ideia de que a avaliação “em si” garante a melhora da educação, como se as condições materiais e humanas fossem alteradas por parcos e pontuais investimentos para algumas áreas previamente definidas como prioridade pelo MEC.

Na formulação do Ideb, Fernandes (2007a) adverte que não adiantaria as escolas restringirem o padrão de aprovação (conhecimento e habilidades mínimos que, idealmente, os estudantes deveriam adquirir para a aprovação) e, assim, elevar o índice de aprovação, já que isso afetaria a proficiência dos alunos, o que seria identificado nos testes padronizados. Essa advertência era explicitada da seguinte forma:

[...] o fato é que não se pode descartar a possibilidade de as escolas

e/ou redes de ensino adotarem medidas que melhorem o fluxo e piorem o desempenho nos exames padronizados e vice-versa. Nesse caso, se a cobrança for restringida apenas aos indicadores de fluxo, ela pode incentivar os professores, os diretores de escolas e gestores de rede a adotarem medidas que impliquem redução no desempenho médio dos estudantes nos testes padronizados, como, por exemplo, reduzir o padrão de aprovação (FERNANDES, 2007a, p.8-9, grifos nossos).

Fernandes36 (2007) julgava a priori que os professores poderiam alterar os padrões de aprovação, por ser mais fácil do que adotar medidas que promovam o aprendizado dos estudantes. Fernandes (2007a) indicava a preocupação do Inep/MEC de que as escolas e secretarias de educação encontrassem subterfúgios para “driblar/mascarar” o índice. Poder-se-ia inferir que o Inep cobra que se eleve a aprendizagem dos alunos, a permanência destes na escola e a consequente elevação do Ideb (sem destacar mudanças estruturais nas condições de trabalho no sistema) – por isso, a atenção a esses “cuidados” técnicos para não permitir subterfúgios.

Contudo, as manifestações e o tratamento da questão indicam também a desconfiança quanto à ação dos sujeitos diretamente vinculados às escolas e secretarias (deturpem os resultados). Nesse sentido, infere-se que o índice na visão oficial está vinculado mais à lógica de monitoramento, do que com o sentido formativo e de ação coletiva entre União, estados, municípios e escolas. Se, nessa lógica, imagina-se que os sujeitos buscam driblar o índice, há de se supor que a visão é de que seja deles unicamente a responsabilidade quanto aos resultados.

Essa concepção justifica a preocupação com a fórmula do Índice, especialmente quanto à “taxa de troca”, que envolve a relação entre probabilidade de aprovação e a proficiência dos estudantes, isto é, o quanto se perde na pontuação média do teste para se obter determinado aumento na taxa média de aprovação37. Esse é o motivo de o assunto ter envolvido bastante atenção por parte do Inep.

A lógica e o discurso que sustentaram a elaboração do Índice sugerem uma concepção de avaliação classificatória, punitiva e que demanda vigilância sobre os

36 Reynaldo Fernandes, graduado e com mestrado e doutorado em Economia, foi presidente do Instituto

Nacional de Estudos e Pesquisas Educacionais Anísio Teixeira (Inep) e professor titular da Universidade de São Paulo.

37 Um dado que interfere nessa busca de fidedignidade da Taxa é o não comparecimento dos alunos com

dificuldade no dia do teste, visto que o mesmo consta como matriculado e não reprovado elevando o índice, mas ao não passar pela aferição, que poderia diminuir a nota, deturpa-se o resultado. Assim, haveria uma alteração da taxa sinalizada como razoável (FERNANDES, 2007a).

avaliados (nesse caso, embora os estudantes realizassem os testes, o foco de monitoramento apareceria mais sobre os profissionais). O Ideb, porquanto, está baseado na relação avaliação/responsabilização das escolas, o que “parece” contraditório quando se analisam os documentos oficiais, a exemplo do PDE/Prova Brasil de 2008, no qual se apresenta a avaliação como forma do Estado em avaliar as políticas públicas de educação e, assim, indicar intervenções necessárias, chamando para si a responsabilidade de garantir melhoras na educação pública.

Os resultados do Saeb e da Prova Brasil (2005/2007) mostram, com mais clareza e objetividade, o desempenho dos alunos da Educação Básica, o que permite uma análise com vistas a possíveis mudanças das políticas públicas sobre educação e de paradigmas utilizados nas escolas brasileiras de Ensino Fundamental e Médio. Os resultados do Saeb e da Prova Brasil são importantes, pois contribuem pra dimensionar os problemas da Educação Básica brasileira e orientar a formulação, a implementação e a avaliação de políticas públicas

educacionais que conduzam à formação de uma escola de qualidade

(MEC/PDE, 2008, p.5, grifos nossos).

Em uma concepção emancipatória de avaliação, não haveria sentido o Inep de antemão despender tal zelo com os possíveis “desvios de conduta” de escolas e professores. Nessa concepção, não é preciso burlar os resultados, já que o foco não é a classificação, comparação e punição, e sim atender às demandas necessárias do sistema, o que não significaria responsabilidade restrita dos professores e das escolas. A finalidade da avaliação, dentre outras, é a identificação dos problemas para ser superados.

A construção do ideário social acerca das ações do governo, das escolas e, em especial, do professor, sugestiona a visão de responsabilização da entidade escolar pelos resultados obtidos e convoca a comunidade a assumir o papel de fiscal do desempenho alcançado, como indica o Decreto n. 6.094/2007:

XIX – divulgar na escola e na comunidade os dados relativos à área de educação, com ênfase no Índice de Desenvolvimento da Educação Básica – Ideb;

XIII – organizar um comitê local do Compromisso, com representantes das associações de empresários, trabalhadores, sociedade civil, Ministério Público, Conselho Tutelar e dirigentes do sistema educacional público, encarregado da mobilização da

sociedade e do acompanhamento das metas de evolução do Ideb.

A disseminação dos resultados das avaliações representa uma das atribuições da Diretoria de Estatísticas Educacionais, a qual ocupa papel central nas atividades do

Inep. As informações que envolvem números, gráficos, rankings e tabelas apontam os grupos que estão abaixo ou acima da média nacional, ou que alcançaram ou não as metas intermediárias. Por meio delas ocorre a seleção das escolas que demandam intervenção e, assim, orientam-se políticas e os grupos que “necessitam de ingerência” do Estado.

Tais dados assumem uma imagem de verdade inquestionável, como informações “claras e confiáveis”. Como destacado no site do MEC, no link de estatística, a missão do Inep:

[...] é promover estudos, pesquisas e avaliações sobre o sistema educacional brasileiro. O objetivo é subsidiar a formulação e implementação de políticas públicas para a área educacional, a partir de parâmetros de qualidade e equidade, bem como produzir informações claras e confiáveis aos gestores, pesquisadores, educadores e público em geral (MEC, 2012, destaque nosso).

A questão que se coloca não é em torno do número, até porque “[...] fixar indicadores de qualidade e explicitar critérios que localizem sua presença ou ausência numa dada realidade” é crucial na avaliação (SORDI; FREITAS, 2009, p.43). O problema, pois, diz respeito ao que é mostrado e ao que é posto à sombra, ou seja, sob o discurso da objetividade há espaço para a manipulação quantitativa, além das variáveis selecionadas ou não para a composição do índice.