Falta de qualidade das avaliações nacionais para medir o desempenho dos alunos compromete a educação básica brasileira.| Foto: Chico Bezerra/Prefeitura Municipal do Jaboatão dos Guararapes
Ouça este conteúdo

No começo de junho, o Ministério da Educação (MEC) anunciou que vai aderir ao exame internacional TIMSS (Trends in International Mathematics and Science Study, ou Tendências em Estudos Internacionais de Matemática e Ciências), que averigua as competências dos estudantes da educação básica nas disciplinas de matemática e ciências. Além disso, em dezembro de 2022, serão divulgados os primeiros resultados do Brasil em outra avaliação internacional a que o governo Bolsonaro aderiu, o PIRLS (Estudo Internacional de Progresso em Leitura), que verifica o desempenho de estudantes da educação básica em leitura.

CARREGANDO :)

>> Faça parte do canal de Vida e Cidadania no Telegram

A intenção do MEC é aumentar a base de comparação com outros países, para saber como o Brasil está evoluindo em relação ao resto do mundo. A chegada do TIMSS e do PIRLS ao Brasil pode escancarar um grave e conhecido problema: a precariedade dos instrumentos nacionais para averiguar a qualidade de nossa educação básica, como a Prova Brasil, o Saeb (Sistema de Avaliação da Educação Básica) e o Ideb (Índice de Desenvolvimento da Educação Básica).

Publicidade

“As provas são tão medíocres, mas tão medíocres, que o sistema educacional brasileiro inteiro, que se pauta nessas avaliações, está seriamente comprometido”, diz Ilona Becskeházy, doutora em Educação pela Universidade de São Paulo (USP) e ex-secretária de Educação Básica do MEC. “Com a entrada no PIRLS e TIMMS, e com uma política educacional muito mais ambiciosa, principalmente, mas não exclusivamente, induzida pelo governo federal, essa questão pode – e deve – ser resolvida em poucos anos”, acrescenta.

Até 2019, a única avaliação internacional a que o governo brasileiro tinha aderido era o PISA (Programa Internacional de Avaliação de Alunos), que avalia alunos matriculados no 1º ano do ensino médio. Isso é necessário, mas insuficiente, já que também é preciso medir como as crianças até o 9º ano do ensino fundamental estão desempenhando. O TIMSS, do qual participam estudantes de 64 países, mede o desempenho de crianças do 4º ano do ensino fundamental (9 e 10 anos), a cada quatro anos, em matemática e ciências. Já o PIRLS, do qual participam cerca de 50 países, mede a capacidade de leitura e compreensão de textos em crianças de 10 anos, a cada cinco anos.

“A entidade organizadora [do TIMSS e do PIRLS] é uma espécie de consórcio de acadêmicos e de formuladores de política internacional que estão justamente procurando alcançar mais eficácia em suas redes escolares”, explica a especialista. “Por alguma razão que me escapa, o Brasil nunca participou de verdade desse processo de busca conjunta pela qualidade, de interação séria entre estudiosos e formuladores de política educacional. Isso deveria ser cobrado de quem precedeu a gestão do MEC antes do governo Bolsonaro, pois o Brasil simplesmente ficou de fora de um processo muito sério e sustentável de integração curricular e de políticas de qualidade”, critica.

Ilona destacou o trabalho da Secretaria de Alfabetização (Sealf) do MEC nos processos de literacia e numeracia. Essa transformação, segundo ela, é “silenciosa, infelizmente, pois a imprensa recusa-se a divulgar”.

Os problemas do Ideb

A adesão do Brasil às avaliações do TIMSS e do PIRLS pode ser o ponto de partida para que o país ganhe uma noção mais clara da precariedade de sua educação básica. Atualmente, a principal fonte de informação sobre a qualidade dessa etapa do ensino é o Ideb, um índice que, para especialistas consultados pela Gazeta do Povo, cria uma sensação ilusória de que o país está evoluindo na educação.

Publicidade

O maior problema do Ideb é que, junto com as médias da Prova Brasil e do Saeb, um dos fatores de seu cálculo é a taxa de aprovação escolar, obtida pelo Censo Escolar, realizado anualmente. Isso tende a causar uma distorção no cálculo e uma ilusão de evolução, já que muitos estudantes têm sido aprovados sem o preparo necessário para isso.

Já não é segredo que um dos subterfúgios de escolas, municípios e governos para melhorar a nota no Ideb é facilitar a aprovação dos alunos. Mas, segundo Ilona, “passar de ano sem saber nada é apenas mais um aspecto da desfaçatez que tomou conta das escolas brasileiras”. “Eles já usam truques como baixas taxas de participação na prova, ou seja, os x por cento piores não fazem a prova, ou transferem alunos repetentes para a educação de jovens e adultos, que não precisam fazer a prova. Não lhes falta imaginação”.

João Batista Oliveira, presidente do Instituto Alfa e Beto, afirma que é provável que a pandemia deixe claro como o Ideb é ilusório, já que o desempenho dos alunos no Saeb e na Prova Brasil, que aferem somente o conhecimento, deve diminuir, enquanto a taxa de aprovação não deve sofrer grande alteração. “É natural que o Ideb provoque uma sensação de melhora, porque ele leva em conta a aprovação. Teve a pandemia, em que todo mundo foi aprovado nos últimos dois anos, e certamente o Ideb vai vir melhor por conta disso. Não significa que a nota da Prova Brasil, que é o que afere conhecimento, vai melhorar. Deve até piorar. Vai ficar mais claro que o Ideb é um índice ilusório”, afirma.

Para ele, há um problema anterior ao das avaliações: a falta de qualidade dos currículos. “A avaliação deveria se concentrar em avaliar as competências previstas no currículo. O problema é que o currículo no Brasil é muito ruim. Sou crítico da BNCC [Base Nacional Curricular Comum], sempre fui. E é muito difícil fazer uma prova boa a partir de um ponto de referência ruim. Essa é uma questão de saída. E o mais grave, no meu modo de ver, é que a maioria dos educadores não tem ideia disso. Eles acham que a BNCC é a oitava maravilha do mundo. Isso é um complicador”, diz Oliveira.

Outro problema, na visão dele, é a ideologização das avaliações, “tanto em relação à concepção da avaliação como no caso muito óbvio de abrir discussões que não convêm”. “Por exemplo, a redação do Enem quer que o aluno procure soluções para problemas complexos. Isso é coisa para adulto, para especialistas”, diz. “São problemas difíceis, porque são parte de uma cultura pedagógica eivada de equívoco”, acrescenta.

Publicidade

Oliveira recorda que o Brasil até melhorou sua nota nas avaliações do PISA nos últimos anos, embora tenha decaído na comparação com outros países, já que há uma tendência internacional de melhora nas notas. Para ele, essa evolução é insignificante. “São mudanças bastante pequenas, dado que o índice do Brasil é muito baixo. Uma coisa é você aumentar a nota na França, em que a média é alta. É mais fácil aumentar a nota em um país com a nota ruim.”

Inep enfrenta acusações de falta de transparência em divulgação dos dados das avaliações sobre educação básica

Nos últimos meses, especialistas da área de educação têm criticado a falta de transparência do Inep (Instituto Nacional de Estudos e Pesquisas Educacionais Anísio Teixeira) na divulgação de microdados sobre as avaliações nacionais da educação, especialmente depois da decisão do instituto de retirar de seu portal os microdados sobre o Enem em fevereiro deste ano. À época, o Inep se justificou dizendo que faria uma adequação do modelo de divulgação. No fim de junho, o primeiro conjunto de microdados sobre as avaliações foi divulgado, e o instituto anunciou que divulgaria o restante das informações por etapas até o fim do ano.

“A reformulação busca alterar a estrutura que era utilizada na consolidação dos microdados, de forma a agregar ou retirar variáveis que favoreciam a reidentificação de indivíduos no contexto atual, com uso de recursos tecnológicos. As mudanças ocorrem com base em estudos técnicos e análise jurídica da Procuradoria Federal especializada junto ao Inep (Projur), além de terem sido apresentadas ao Ministério da Educação (MEC), à Autoridade Nacional de Proteção de Dados (ANPD), à Controladoria-Geral da União (CGU) e ao Tribunal de Contas da União (TCU)”, afirmou o Inep.

A falta de divulgação dos microdados gerou forte reação entre pesquisadores de educação. No dia 23 de junho, por exemplo, educadores brasileiros do Centro David Rockefeller para Estudos Latino-Americanos publicaram um estudo intitulado “Raio-X do Inep: desmonte e enfraquecimento institucional”, em que apontam uma série de omissões do Inep.

Entre outras coisas, o estudo diz que o Saeb, pela primeira vez, poderia não atingir o mínimo necessário de 80% de estudantes para a divulgação dos seus resultados, o que poderia causar o encerramento da série histórica do Ideb. Questionado pela Gazeta do Povo sobre isso, o Inep contesta a informação e diz que “os resultados da aplicação não inviabilizam o cálculo do Ideb”.

Publicidade

Em outra crítica, os pesquisadores afirmam que “o Inep suprimiu nos arquivos divulgados boa parte das informações pormenorizadas do Censo Escolar, prejudicando pesquisas e formulação de políticas públicas que tomam como base estes microdados”. Sobre essa questão, o Inep explicou a situação afirmando que “os formatos de apresentação do conteúdo dos arquivos estão sendo reestruturados para evitar a possibilidade de identificação de pessoas, em atendimento às normas previstas na Lei n.º 13.709, de 14 de agosto de 2018 – Lei Geral de Proteção de Dados Pessoais (LGPD)”. “O Inep já divulgou um cronograma com as datas de republicação, após os necessários ajustes técnicos, de todos os dados inicialmente suprimidos. Vale destacar que os microdados do Censo Escolar já foram ajustados e publicados novamente”, afirma o instituto.

Os pesquisadores de Harvard também afirmam que, “após gastar 1,5 milhão de reais para a realização do International Civic and Citizenship Education Study, que avalia os estudantes para o civismo, o Inep comunicou a desistência da participação do Brasil neste exame em razão da dificuldade do cumprimento do cronograma”. O Inep nega essa informação.

“Com relação à participação do Inep no Estudo Internacional sobre Educação Cívica e Cidadania (ICCS) 2022, o Instituto confirma a realização da iniciativa e já anunciou, inclusive, a contratação do Centro Brasileiro de Pesquisa em Avaliação e Seleção e de Promoção de Eventos (Cebraspe) por meio do resultado do Pregão Eletrônico 4/2022. A empresa será responsável pela aplicação do estudo, prevista para o período de 12 a 30 de setembro. A avaliação será aplicada para uma amostra nacional de 10 mil alunos de escolas públicas e privadas de todas as regiões do Brasil, por meio de questionário eletrônico”, diz o instituto.

Para João Batista Oliveira, questionamentos como esse poderiam ser evitados se o governo federal terceirizasse avaliações, trazendo atores externos para verificar a qualidade da educação. “Há um monopólio do Inep, um órgão público sujeito a vários tipos de interferências internas e externas. Em geral, na maioria dos países, a avaliação é feita externamente por agências técnicas especializadas. Isso é mais saudável”, afirma.

Oliveira concorda que há falta de transparência na divulgação de certas informações. “É cada dia mais difícil o acesso dos pesquisadores aos chamados microdados das avaliações. E é isso o que permite a análise mais aprofundada”, diz. “É uma medida importante facilitar, escancarar o acesso a esses dados, de forma a estimular cada vez mais pesquisas críticas e analíticas”, destaca.

Publicidade
Infográficos Gazeta do Povo[Clique para ampliar]