• Carregando...
Fizemos o PIRLS, mas acho que não vamos longe com isso
| Foto: Bigstock

Caros leitores, peço desculpas pelo sumiço, mas um engarrafamento de perrengues pessoais e profissionais drenou minhas energias nas últimas semanas. Vencidas as bizarrices, cá estou para explicar, no estilo Gazeta do Povo (aquele que realmente informa), alguns aspectos importantes sobre um “novo” exame internacional de proficiência cujos resultados foram divulgados nos últimos dias.

Trata-se do PIRLS ou Estudo Internacional de Progresso em Leitura, do nome em inglês Progress in International Reading Literacy Study. As senhoras e os senhores não vão me ver lamentando algo já totalmente esperado: os alunos brasileiros obtendo resultados ruins em qualquer avaliação de desempenho escolar que utilize uma amostra representativa do universo dos estudantes da educação básica deste país. E completo repetindo algo que já disse em outras ocasiões: comparando por mesma faixa de renda, mesmo os que frequentam escolas de “elite” também ficarão na posição de lanterninha.

Em futuros artigos sobre o PIRLS tratarei do que a prova mede e porque é tão importante para um país (ou estado ou outra unidade subnacional) participar desse tipo de avaliação coletiva de políticas educacionais. Hoje eu quero contar como essa avaliação surgiu no cenário brasileiro, uma vez que, de “nova”, ela não tem nada.

Antes do meu relato, lembro que decidir participar de qualquer avaliação, quando se sabe de antemão que o seu desempenho não será bom, é um ato de coragem. Até subir na balança na segunda-feira depois das férias dá um frio na espinha. Para uma autoridade educacional, submeter os alunos sob sua responsabilidade a um teste sabidamente mais puxado que a média do que se ensina nas escolas é prova de macheza institucional. Foi com vontade de expor o problema da educação no Brasil, e angariar apoio para melhorá-la, que o então presidente Fernando Henrique Cardoso deu o OK ao seu ministro da Educação, Paulo Renato Souza, quando este pediu autorização para participar do PISA que teve a primeira edição em 2000.

O problema é que os sindicalistas venceram as eleições em 2002 e tudo o que poderia ter sido aprendido com esse exame ficou no “ora, veja bem” (não isento tucanos que voaram para outros poleiros e não fizeram sua parte para levar esse conhecimento adiante). Ao menos, não nos excluíram das seguintes (apesar de terem mexido na amostra em 2012). Os relatórios técnicos e as provas sequer foram sistematicamente traduzidos e disponibilizados para os educadores brasileiros e nem pensar que os acadêmicos de esquerda das nossas universidades tenham trabalhado com esse tipo de informação neoliberal quantitativista. Muito menos expandir para as provas mais importantes do mercado internacional para a educação básica: PIRLS e TIMSS! Essa missão espinhosa ficou para o Capitão Idazistachista.

Lembro que decidir participar de qualquer avaliação, quando se sabe de antemão que o seu desempenho não será bom, é um ato de coragem

Vamos aos detalhes das provas.

Quem concecebeu e aplica o PIRLS (e o TIMSS, seu equivalente para Matemática e Ciências - Trends in International Mathematics and Science Study ou  Estudo Internacional de Tendências em Matemática e Ciências), em parceria com entidades locais de avaliação, é uma instituição conhecida como IEA - (International Association for the Evaluation of Educational Achievement ou Associação Internacional para a Avaliação do Desempenho Educacional). A IEA existe desde os anos 1960 e funciona como uma espécie de consórcio de técnicos e estudiosos no campo da educação, avaliação e políticas educacionais. É bem diferente da OCDE (Organização para a Cooperação e Desenvolvimento Econômico) que desenha e opera o famigerado PISA.

O PISA é uma espécie de filhote do TIMSS e do PIRLS. Mas conta com três importantíssimas diferenças:

1) o objetivo inicial do PISA era apenas fazer uma estimativa do nível da mão de obra futura de cada país – a OCDE foi criada depois da II Guerra para promover o desenvolvimento econômico dos países afetados pelo conflito  e não para avaliar políticas públicas, que é a razão de existir da IEA;

2) por isso, o PISA aplica questões muito mais fáceis, claro, dizendo um blá, blá, blá quase paulofreriano de aplicação de conhecimento, educação no contexto e coisas do gênero, mas o que eles queriam saber, a grosso modo, era apenas se os jovens de 15 anos – que em geral, nos países membros, estavam concluindo a educação básica compulsória – sabiam ler e fazer as quatro operações aritméticas;

3) a aplicação recorrente do PISA e seu grande impacto midiático criou uma celebridade educacional internacional, que agora faz aplicações customizadas das provas a preços módicos – uma iniciativa conhecida como “Pisa for Schools” – que tem permitido que escolas brasileiras façam marketing por meio de distorção estatística: “nossa escola está acima da média do PISA!”. Com uma elite des-pensante como a nossa, ninguém questiona que uma amostra de escola de elite possa ser comparada com a média de alunos de um país (mesmo que seja a Finlândia), a qual inclui os filhos dos operários e de famílias de baixo nível socioeconômico; e, por fim;

4) podem dar uma olhada no discurso do PISA de uns 10 anos para cá e perceber que cada vez mais se foge do tema central – medir o nível de complexidade da compreensão leitora e do raciocínio matemático básico de quem faz o teste, além de fatores associados – e usa seu espaço de exposição para dar visibilidade a tal agenda woke-globalista-progressista e afins, que normalmente não liga se pobre aprende ou não aquilo que precisa para arrumar um bom emprego quando sair da escola.

Mas porque eu contei essa história toda?

Porque o PIRLS e o PISA começaram a ser aplicados na mesma época, no início dos anos 2000, e nós escolhemos ficar apenas com o PISA, quando o PIRLS e o TIMSS são muito mais importantes para a construção de políticas públicas efetivas para fazer os alunos aprenderem mais. O grupo que compõe a IEA estuda a fundo os currículos dos países membros, além disso a convergência da listagem de objetivos de aprendizagem que houve no mundo nas últimas três décadas brotou desse grupo. Hoje, todos querem ser Singapura em termos de nível de proficiência, mas foi por meio do trabalho conjunto no IEA que as autoridades educacionais dos países desenvolvidos descobriram como: currículo ambicioso, detalhado e por disciplina somado a livros didáticos que operacionalizassem em sala de aula essa lista ambiciosa do que os alunos devem saber fazer a cada ano.

Entretanto, o Brasil escolheu ficar de fora. Quem sentou na cadeira do MEC de 2000 até 2019?

E depois de 2019, quem quebrou o paradigma consolidado até então, autorizando o Inep (autarquia do MEC responsável por avaliações) a subscrever ao PIRLS e ao TIMSS?

Vou transcrever uma parte do histórico da IEA para ficar bem claro porque as “autoridades educacionais” federais brasileiras (manda quem pode: sindicatos, operadores de ideologia nas universidades/ONGs e fornecedores) quiseram ficar de fora:

“Os fundadores do IEA viam o mundo como um laboratório educacional natural, onde diferentes sistemas escolares experimentam diferentes maneiras de obter os melhores resultados na educação de seus jovens. Eles acharam que, se a pesquisa pudesse obter evidências de uma ampla gama de sistemas [de ensino], a variabilidade seria suficiente para revelar relações importantes que, de outra forma, escapariam à detecção em um único sistema educacional. Eles rejeitaram fortemente afirmações sem dados sobre méritos relativos de vários sistemas educacionais e tiveram como objetivo identificar fatores que influenciariam de forma significativa e consistente os resultados educacionais.”

Hoje, todos querem ser Singapura em termos de nível de proficiência, mas foi por meio do trabalho conjunto no IEA que as autoridades educacionais dos países desenvolvidos descobriram como

Essa tríade de poder educacional – sindicatos, operadores de ideologia nas universidades/ONGs e fornecedores – não tem o menor interesse em usar dados para pautar o desenho, aprimoramento ou o abandono de políticas educacionais, uma vez que o importante é ter poder, usar os alunos com baixo desempenho de refém para conseguir sempre mais verbas, naturalizar uma tal percepção de mundo e faturar, mesmo que seu produto seja uma porcaria.

Como vários (nem todos) eventos ou fatos positivos e negativos no governo Bolsonaro, a ida e a permanência do professor Carlos Nadalim para a recém-criada (à época, em janeiro de 2019) Secretaria de Alfabetização no Ministério da Educação – SEALF – foi um (ótimo) acaso. Ele já era um técnico, cuja sobeja formação empírica supera, em muito, quase todas as pessoas que passaram pelo MEC nos últimos 30 anos. Além disso, recebeu uma generosa visita do ex-ministro da Educação de Portugal, o senhor Nuno Crato, que deu uma super master class sobre o que realmente importa no desenho e implementação de reformas educacionais do tipo eficácia escolar (lembram, as que ensinam mais a todo tipo de aluno?). A partir daí, vários acadêmicos portugas – apesar de uma ferrenha campanha do contra, dos lados do Oceano Atlântico – passaram a trabalhar com os técnicos do super time da Secretaria para fazer uma gama lógica de programas complementares. Fazer parte do grupo de países que ousa participar das provas PIRLS e TIMSS foi ideia do professor Nadalim levada ao INEP e aprovada por algum outro acaso do bem (infelizmente, parece que o estoque deles acabou em 31/12/2022).

A questão é: o que estava programado para disseminação dos aspectos técnicos das provas e de seus relatórios para os professores do Brasil e - o mais importante - a adoção de um currículo padrão FIFA (saudades, hein!? Mas outro tombo dessa magnitude já deve estar sendo cozinhado) dificilmente acontecerá em um governo que trouxe de volta ao MEC a tríade de poder educacional que não quer nem ouvir falar de alunos brasileiros aprendendo. Deixem isso para os chineses .

Conteúdo editado por:Jônatas Dias Lima
0 COMENTÁRIO(S)
Deixe sua opinião
Use este espaço apenas para a comunicação de erros

Máximo de 700 caracteres [0]