• Carregando...
Eficiência da ciência no Brasil cai há 22 anos. Remédio é amargo, mas necessário
| Foto: Unsplash / Reprodução

Ser cientista implica conviver bem com críticas e avaliações. Como ciência é internacional, comparar com outros países é inevitável e desejável. Mas encontrar bons indicadores é crucial para direcionar as atividades.

Passamos décadas escolhendo indicadores que sustentassem nossa suposta competência, ignorando evidências contrárias. Um exemplo marcante foi o Index Nature de 2014. O Brasil ficou em 50º colocação dentre 53 países na eficiência para converter em publicações em revistas de bom prestígio científico o dinheiro investido em ciência e desenvolvimento. Embora noticiado pelo jornal Folha de S. Paulo em 17 de novembro de 2014, não teve a repercussão merecida. Outros casos ocorreram, mas aos nossos gestores interessava outro foco: a visibilidade.

Na prática, escolhendo indicadores, selecionamos classificações. Se quisermos crescer na ciência, devemos olhar indicadores de relevância científica. Mesmo não havendo indicador perfeito para qualidade científica, devemos buscar o que melhor retrate esse sistema.

Da década de 1990 até hoje, priorizamos indicadores ruins ou incompletos: produção bruta de artigos e número de citações recebidas. Isso estimulou no Brasil, de forma insana, a criação de revistas científicas, autocitações e casos de corrupção.

Por valorizarmos indicadores que melhor nos classificam, construí a figura abaixo a partir de dados públicos do Scimago Journal Rankings. Percebam o ótimo desempenho de nosso país quando olhamos números totais de publicações ou citações. Até 2002, estávamos entre 16ª e 25ª posições; daí, ficamos entre 13ª e 20ª até 2018. Esse quadro é confortável, não fosse equivocado.

A análise necessária deve focar na eficiência da produção científica. Ou seja, devemos analisar o impacto que temos no mundo e o quanto isso nos custou. Nosso custo, financeiro ou não, está patente no número de publicações (cada publicação expressa custo de alguma natureza). E são as curvas de eficiência (citações/publicações) que mostram nossas falhas. Pioramos de 1996 para cá, numa queda modesta e, depois, mais acentuada a partir de 2003.

Desde 1996, o número de países em avaliação no Scimago cresceu de 214 para 233, e as amostras que usei foram de 75 para 134 países, i. e., quanto mais países entraram, mais nossa classificação em Eficiência caiu. Baixa eficiência implica alto custo, já que em citações totais estamos bem. Ou seja, inchamos o sistema, mas a qualidade não acompanhou.

Como não olhamos a eficiência, nos consideramos capacitados e não percebemos a fraqueza latente de nossa ciência (exceções à parte). Achamos que só nos faltava visibilidade e investimos em criação de revistas, textos em inglês, publicação com famosos e outras igualmente sofríveis. Para um dia sermos país de Ciência, condição inevitável para Educação, Tecnologia e Inovação, devemos olhar indicadores amargos e enfrentarmos a falta de ousadia política e a resistência dos avaliados.

* Gilson Volpato é professor aposentado da Unesp, de Botucatu, pesquisador 1B pelo CNPq, autor de 12 livros nas áreas de Ciência, Formação de Cientistas, Redação e Metodologia Científica. Mantém um canal no YouTube com 11 mil seguidores e mais de 1 milhão de visualizações. É sócio-fundador do Instituto Gilson Volpato de Educação Científica.

0 COMENTÁRIO(S)
Deixe sua opinião
Use este espaço apenas para a comunicação de erros

Máximo de 700 caracteres [0]