Vejam Blog e grupo de discussões
Endereço do Blog - com os manifestos que podem ser assinados e outros textos
Endereço de e-mail do grupo ao qual pode se inscrever para participar das discussões
bolsa_produtividade@googlegroups.com
bolsa_produtividade@googlegroups.com
Wilson José Vieira
Instituto de Estudos Avançados, Centro Tecnológico da Aeronáutica, São José dos Campos, SP
Palestra apresentada na Mesa Redonda “Políticas de Ciência e Tecnologia: Reflexão sobre as atuais políticas de C&T implementadas pelas agências de fomento”, na Universidade Federal de Goiás, Goiânia, em 13 de julho de 2011
O sucesso do programa de pós-graduação brasileiro torna difícil apontar algo de errado. Não há como negar os avanços em C&T no Brasil. É fácil citar Petrobrás, Embrapa, Embraer, Fiocruz e CTA como exemplos de empresas e instituições de pesquisas, que mantêm a força desse País. E isso se deve, em grande parte, à formação de pessoal qualificado nos programas de pós-graduação de nossas universidades.
No entanto, se a pós-graduação no Brasil tivesse fomentado um pouco mais soluções para problemas um pouco mais brasileiros, talvez tivéssemos obtido resultados melhores para nossos índices de saúde, transporte, educação, habitação, energia, etc.O grande problema em nossas universidades e institutos de pesquisas é que se estabeleceu a doutrina do currículo por metro. O critério de maior valor é o tamanho do currículo, ou o número de publicações. Isso faz com que o objetivo principal de professores e pesquisadores seja trabalhar para fazer grandes quantidades de publicações.
Esse fenômeno perverso é provocado por nossas instituições de fomento em C&T, que utilizam o número de publicações como critério principal de avaliação de professores e pesquisadores para concessão de bolsas de estudos, recursos financeiros e outros benefícios. Aqueles que têm os maiores currículos conseguem recursos. Além disso, programas de pós-graduação e departamentos inteiros também são avaliados por números de publicações.
Como o fomento é dado a quem publica mais, o objetivo fica sendo aumentar a quantidade de publicações. Não é educação, não é ensino, não é desenvolvimento científico ou tecnológico, não é desenvolvimento social ou econômico.
No Brasil, professores e pesquisadores são classificados em níveis e a progressão nesses níveis é dada pelos órgãos de fomento de acordo com o aumento do comprimento do currículo. Somente os membros dos níveis superiores têm o poder para fazer regulamentos e regras que representam maiores privilégios para quem tem metros e metros de currículo. São cargos, comissões, comitês, projetos, recursos financeiros, etc. São regulamentos e regras que impedem outros professores e pesquisadores, que não têm metros e metros de currículo, de pleitear seus pedidos, projetos e, até mesmo, de dar aulas ou orientar alunos. Não há avaliação de mérito em termos de contribuição para a sociedade brasileira, ou de reais desenvolvimentos científicos e tecnológicos.
Temos que valorizar nossa elite de grandes cientistas, de grandes professores, de grandes pensadores, de grandes homens e mulheres. Mas não apenas olhando para uma tabela de números. Nossas universidades e institutos de pesquisa têm que ter coragem e pensar um País melhor. Não podem se sujeitar a serem avaliadas quase que somente por números de publicações.
É imperativo que a classe política brasileira intervenha nesse mecanismo cruel que prejudica empresas, desmotiva jovens cientistas, premia mediocridades, desqualifica mentes brilhantes e promove C&T de segunda mão. Temos de libertar nossas instituições de fomento e permitir que executem políticas de C&T de governo, com seus profissionais de carreira treinados para isso.
Nossos professores e pesquisadores são a esperança de um verdadeiro desenvolvimento científico, tecnológico, social e econômico. Mas não sob essa política, cujo objetivo é apenas aumentar o número de publicações e muito pouco alinhada com as necessidades do Brasil.
Produtivismo, ranqueamento e o Navio Negreiro
Prof. Armando G. M. Neves
Universidade Federal de Minas Gerais
Palestra apresentada na Mesa Redonda “Políticas de Ciência e Tecnologia: Reflexão sobre as atuais políticas de C&T implementadas pelas agências de fomento”, na Universidade Federal de Goiás, Goiânia, em 13 de julho de 2011
Sou professor de Matemática e, como tal, acho estranho que nós humanos, inteligentes, professores ou pesquisadores, tenhamos tamanha compulsão em medirmos com um único número diversas realidades que não são intrinsecamente mensuráveis. Só para começar com alguns exemplos: será que o PIB mede a qualidade de vida em um país, ou o número de votos a competência de um candidato?
Neste pequeno artigo pretendo comentar como tal compulsão para medir o que não deve ser medido pode prejudicar a Educação e o Desenvolvimento Científico e Tecnológico do Brasil. Por isto, uso no título o horrendo termo ranqueamento, onde poderia ter usado, por exemplo, classificação. A horribilidade do termo foi escolhida de propósito para refletir os efeitos danosos que estão sendo produzidos por tal ação quando aplicada à produção científica e à produção dos cursos de pós-graduação no Brasil (e no resto do mundo também).
E já que começamos falando de Brasil e de palavras bonitas ou feias, cito um pedaço do belíssimo Navio Negreiro de Castro Alves:
Cientometria (ou Numerologia)Quando falo em Numerologia, faço-o como matemático; como alguém que não simpatiza com a atribuição de significados para os números além daqueles que são ensinados nas boas aulas da minha matéria. A Cientometria é um ramo da Ciência (sic) que se dedica à mensuração numérica da própria Ciência, baseada principalmente na contagem do número de publicações dos cientistas e do impacto dessas publicações. O uso do termo Numerologia para referir-se de forma depreciativa à Cientometria, eu ouvi de vários dos palestrantes no I Simpósio Nacional de Avaliação Científica, realizado em Brasília em 20/9/2010. A tônica de tal simpósio foi exatamente uma crítica aos efeitos negativos que a Cientometria vem produzindo sobre a Ciência no Brasil.
Com os avanços da informática nos últimos anos, hoje a contagem do número de artigos publicados de um determinado cientista, ou grupo de cientistas, é tarefa simples. Assim como é também fácil contar o número de citações dos artigos de um cientista ou grupo por artigos de outros cientistas. Outra tarefa simples decorrente dessas é a contagem de citações de artigos de uma revista por artigos posteriores. Sobre essas facilidades e sobre o desejo humano de querer comparar incomparáveis fundou-se a prática de ranquear revistas científicas pelo número de citações que seus artigos recebem e também de ranquear os cientistas seja pelo número de artigos publicados, seja pelo número de citações destes, seja por qualquer combinação dessas possibilidades – de fato há teoricamente infinitas maneiras de realizar essa combinação, o que basicamente quer dizer que todas são inúteis. O conhecido índice H é uma delas. Veja em [1] uma crítica a este índice e outros assemelhados e uma divertida receita de como manipular a seu favor seu próprio índice H.
Não só em [1] se critica o uso atual indiscriminado da Numerologia. De fato, a reação às práticas cientométricas vem ganhando um grande número de adeptos. Outros artigos a respeito estão disponíveis em [2]. Um livro interessante que toca no assunto é [3]. Dentre as críticas mais bem documentadas, cito [4]. Este último é um documento produzido por três entidades internacionais que congregam matemáticos e estatísticos. Logo em seu sumário encontra-se a seguinte conclusão, referindo-se ao uso de dados cientométricos: “a pesquisa é importante demais para que seu valor seja medido usando uma única ferramenta grosseira”.
Uma vez que a bibliografia sobre a Cientometria é já bastante numerosa, passo a enumerar e comentar algumas das consequências desta, principalmente para o caso brasileiro.
Dados fraudados: No afã de produzir mais artigos para poder competir com seus concorrentes pelas verbas de financiamento, alguns cientistas vêm fraudando dados. Há poucos anos ganhou notoriedade na imprensa o caso de um pesquisador coreano da área de células-tronco, considerado um dos líderes mundiais da área. Se o uso de dados fictícios ocorre até mesmo entre os líderes mundiais, certamente está ocorrendo também nos níveis mais “baixos”.
Plágios, inclusive autoplágios: Da mesma forma, a imensa quantidade de artigos publicados hoje em dia e a fácil difusão destes pela Internet propicia a cópia de trabalhos inteiros ou em partes. Um caso notório no Brasil também ocorreu recentemente, em que uma ex-reitora da USP aparece como coautora de um trabalho plagiado. Ocorre até mesmo que um cientista recopie seus próprios trabalhos – parcial ou totalmente – para publicá-los uma segunda vez.
Coautorias fictícias: Trata-se de prática conhecidamente praticada em todo o mundo, em que um grupo de pessoas produz um artigo e coloca como coautores outras pessoas que ou não participaram do trabalho, ou o fizeram de forma marginal. Em geral, aqueles que incluem coautores fictícios são incluídos como coautores em trabalhos posteriores daqueles que foram incluídos. Outra modalidade é a inclusão de coautores renomados, mesmo sem retribuição posterior por esses, pois isto possivelmente facilita a publicação do artigo em revistas de prestígio.
Compadrio de citações: Em vez de negociar uns com outros coautorias, pode-se também negociar citações, já que estas também são usadas como moeda no establishment da Cientometria.
Divisão de trabalhos em LPUs (=Least Publishable Unit): Como o número de artigos publicados é em geral mais importante do que o impacto desses, muitos cientistas optam por dividir bons trabalhos científicos em pequenas partes, cada uma delas contendo novidade somente suficiente para que o trabalho possa ser publicado. Tal prática atenta contra a utilidade das publicações científicas e dificulta o papel dessas como difusoras de conhecimento.
Desincentivo à produção de livros didáticos: Os livros ainda são o melhor veículo para a difusão do conhecimento. No entanto, os cientistas são incentivados a escrever artigos, estes em geral pouco didáticos e incompletos.
Desincentivo ao ensino com qualidade, ao trabalho de extensão, à solução de problemas relevantes: No Brasil, a grande maioria dos cientistas é professor de universidades públicas. Em princípio, a principal missão dessas é a do Ensino, com fins de formação de mão de obra especializada de alto nível. A pesquisa científica faz parte natural dessa missão, mas a ascensão na carreira das universidades quase sempre privilegia a produção científica, em detrimento de outras atividades mais ligadas ao Ensino. Nas instituições de pesquisa científica, mesmo as que não possuem cursos de graduação ou pós-graduação, a preocupação com a produtividade científica acaba por desviar o interesse dos cientistas para a solução de problemas mais fáceis, em geral de menor alcance para a sociedade.
Desperdício de talentos: Os jovens, principalmente os alunos de cursos de graduação ou pós-graduação, estão sendo treinados para se tornarem uma nova geração ainda mais preocupada com a produtividade e menos com a relevância do trabalho científico como meio para o progresso científico, tecnológico ou cultural.
Perda de credibilidade da comunidade científica: Se os cientistas passam a se preocupar somente com sua carreira, produzindo cada vez mais artigos que respondem pouco ou nada às demandas da sociedade que os financia, é de se esperar que em algum momento este financiamento irá diminuir ou cessar. Um sintoma de que a credibilidade dos cientistas está em baixa é a conotação negativa que o termo “acadêmico” vem tomando no Brasil. Se na Grécia antiga, a Academia de Platão era o santuário do conhecimento mais alto daquela sociedade, hoje no Brasil o que chamamos de acadêmico é quase sempre algo pomposo, porém inútil.
A Capes e a pós-graduação no BrasilO sistema de pós-graduação no Brasil é parte fundamental da produção da Ciência, da Tecnologia e da Cultura, pois é lá que são formados os cientistas. A Capes é uma agência ligada ao Ministério da Educação, que participa do fomento dos cursos de pós-graduação e realiza a avaliação dos mesmos. A avaliação da Capes foi certamente importante para o crescimento da qualidade do sistema, mas tenho observado nos últimos anos uma forte tendência de incentivar o que não deveria sê-lo. Irei exemplificar daqui em diante esta tendência.
A Capes ranqueia os programas de pós-graduação no Brasil em níveis de 1 a 7 em ordem ascendente de “qualidade”. Para que consigam mais recursos financeiros e humanos, os cursos de pós-graduação devem procurar aumentar seu nível no ranking. No entender da Capes, ter um corpo docente mais produtivo e formar alunos em menos tempo são critérios que permitem a ascensão dos cursos no ranking.
A Capes ranqueia também as revistas científicas através do sistema Qualis. A intenção de tal sistema seria a de tentar qualificar a produção científica dos cursos de pós-graduação através da indicação de quais revistas seriam “melhores”. Mesmo que fosse boa a intenção, há que se notar que parte da premissa errada de que a qualidade de uma produção está correlacionada à pretensa qualidade da revista que a publicou. Além do mais, a ferramenta que deveria, segundo a Capes, ser utilizada somente para qualificar cursos de pós-graduação tem sido extrapolada para a classificação também dos professores desses cursos. Um exemplo típico é o regulamento do próprio curso de pós-graduação de que participo (ver [5]).
A respeito do Qualis deve-se salientar que a Austrália já possuiu um sistema semelhante ao nosso e já desistiu dele. Ainda a esse respeito, há um documento [6] da União Matemática Internacional e do Conselho Internacional de Matemática Aplicada e Industrial que propõe a criação de um comitê para classificação das revistas da área de Matemática de maneira “honesta e cuidadosa”, de maneira a “ir contra a tendência” de usar dados bibliométricos para a classificação de revistas. O Brasil é citado, junto com Austrália e Noruega, como um dos países que possuem um sistema de classificação do tipo bibliométrico, contra o qual essas associações internacionais se estão insurgindo.
Em consequência dos critérios ranqueatórios da Capes, os cursos tendem a pressionar os alunos e seus orientadores para que minimizem o tempo de duração do curso. Desta forma, o orientador tem chance de publicar mais artigos em revistas mais bem ranqueadas segundo o Qualis. em menos tempo, e orientar mais alunos. O aluno tem também a chance de passar mais rapidamente ou para um curso de pós-graduação de nível superior, ou de entrar no mercado de trabalho.
Em princípio não há nada de ruim nisto, mas o problema é que nesta lógica produtivista ficou esquecido o objetivo principal da pós-graduação: a formação de um mestre ou doutor com sólidos conhecimentos, adquiridos através da realização de um trabalho de pesquisa cuidadoso, o qual possa contribuir para a solução de problemas relevantes da sociedade, ou aumentar a cultura da humanidade. Não é pressionando para a diminuição do tempo dos cursos que tal objetivo será cumprido.
Os critérios da Capes tendem também a retirar dos corpos docentes dos cursos de pós-graduação os pesquisadores menos produtivos. Uma vez que para subir no ranking da Capes é melhor ter um corpo docente muito produtivo do que um grande número de pesquisadores, os cursos formulam regras que efetivamente alijam da possibilidade de lecionar e orientar alunos na pós-graduação professores e pesquisadores de muito mérito. Obviamente, um corpo docente menor significa também um menor número de vagas para alunos.
Todos perdem com essa política nefasta. Perdem os professores alijados, pois vêem diminuída a sua capacidade de contribuir também com a pós-graduação. Perdem potenciais estudantes, que estão demandando vagas em cursos de mestrado e doutorado, vagas essas que poderiam ser disponibilizadas à sociedade caso professores menos produtivos, mas com perfeita capacidade de pesquisa e orientação, estivessem presentes nos cursos. Principalmente, perde a sociedade com os mestres e doutores que não foram formados por causa da falta de vagas, pessoas que poderiam dar grandes contribuições à pesquisa e ao ensino no Brasil.
Conclusões
Nós, cientistas, estamos hoje escravizados pela Cientometria. Precisamos nos libertar destes grilhões, ou então a Ciência passará a ser inútil e, ao final, a sociedade perderá o interesse por financiá-la. Por isto, deixando de lado a métrica, registro como um protesto humorístico a minha versão do Navio Negreiro:
Referências
[1] F. Laloë, R. Mosseri, L’évaluation bibliométrique des chercheurs: même pas juste… même pas fausse!, Reflets de la Physique 13, pp. 23, 2009.
[2] Blog Democracia e transparência em C&T, http://democracia-e-transparencia-em-ct.blogspot.com/.
[3] L. Smolin, The Trouble with Physics, Houghton-Mifflin, 2006.
[4] R. Adler, J. Ewing, P. Taylor, Citation statistics, disponível em http://www.mathunion.org/fileadmin/IMU/Report/CitationStatistics.pdf.
[5] Resolução PGMAT 01/2007, disponível em http://www.mat.ufmg.br/pgmat/resolucoes/Res07-01.pdf.
[6] Report of the journal working group to the ICIAM board and IMU executive committee, 30 june 2011, disponível em http://www.iciam2011.com/images/stories/ICIAM2011/wg_jrp_report.pdf.
Neste pequeno artigo pretendo comentar como tal compulsão para medir o que não deve ser medido pode prejudicar a Educação e o Desenvolvimento Científico e Tecnológico do Brasil. Por isto, uso no título o horrendo termo ranqueamento, onde poderia ter usado, por exemplo, classificação. A horribilidade do termo foi escolhida de propósito para refletir os efeitos danosos que estão sendo produzidos por tal ação quando aplicada à produção científica e à produção dos cursos de pós-graduação no Brasil (e no resto do mundo também).
E já que começamos falando de Brasil e de palavras bonitas ou feias, cito um pedaço do belíssimo Navio Negreiro de Castro Alves:
Auriverde pendão de minha terra,
Que a brisa do Brasil beija e balança,
Estandarte que a luz do sol encerra
E as promessas divinas da esperança...
.........................
Mas é infâmia de mais ... Da etérea plaga
Levantai-vos, heróis do Novo Mundo...
Andrada! arranca esse pendão dos ares!
Colombo! fecha a porta dos teus mares!
Que a brisa do Brasil beija e balança,
Estandarte que a luz do sol encerra
E as promessas divinas da esperança...
.........................
Mas é infâmia de mais ... Da etérea plaga
Levantai-vos, heróis do Novo Mundo...
Andrada! arranca esse pendão dos ares!
Colombo! fecha a porta dos teus mares!
Cientometria (ou Numerologia)Quando falo em Numerologia, faço-o como matemático; como alguém que não simpatiza com a atribuição de significados para os números além daqueles que são ensinados nas boas aulas da minha matéria. A Cientometria é um ramo da Ciência (sic) que se dedica à mensuração numérica da própria Ciência, baseada principalmente na contagem do número de publicações dos cientistas e do impacto dessas publicações. O uso do termo Numerologia para referir-se de forma depreciativa à Cientometria, eu ouvi de vários dos palestrantes no I Simpósio Nacional de Avaliação Científica, realizado em Brasília em 20/9/2010. A tônica de tal simpósio foi exatamente uma crítica aos efeitos negativos que a Cientometria vem produzindo sobre a Ciência no Brasil.
Com os avanços da informática nos últimos anos, hoje a contagem do número de artigos publicados de um determinado cientista, ou grupo de cientistas, é tarefa simples. Assim como é também fácil contar o número de citações dos artigos de um cientista ou grupo por artigos de outros cientistas. Outra tarefa simples decorrente dessas é a contagem de citações de artigos de uma revista por artigos posteriores. Sobre essas facilidades e sobre o desejo humano de querer comparar incomparáveis fundou-se a prática de ranquear revistas científicas pelo número de citações que seus artigos recebem e também de ranquear os cientistas seja pelo número de artigos publicados, seja pelo número de citações destes, seja por qualquer combinação dessas possibilidades – de fato há teoricamente infinitas maneiras de realizar essa combinação, o que basicamente quer dizer que todas são inúteis. O conhecido índice H é uma delas. Veja em [1] uma crítica a este índice e outros assemelhados e uma divertida receita de como manipular a seu favor seu próprio índice H.
Não só em [1] se critica o uso atual indiscriminado da Numerologia. De fato, a reação às práticas cientométricas vem ganhando um grande número de adeptos. Outros artigos a respeito estão disponíveis em [2]. Um livro interessante que toca no assunto é [3]. Dentre as críticas mais bem documentadas, cito [4]. Este último é um documento produzido por três entidades internacionais que congregam matemáticos e estatísticos. Logo em seu sumário encontra-se a seguinte conclusão, referindo-se ao uso de dados cientométricos: “a pesquisa é importante demais para que seu valor seja medido usando uma única ferramenta grosseira”.
Uma vez que a bibliografia sobre a Cientometria é já bastante numerosa, passo a enumerar e comentar algumas das consequências desta, principalmente para o caso brasileiro.
Dados fraudados: No afã de produzir mais artigos para poder competir com seus concorrentes pelas verbas de financiamento, alguns cientistas vêm fraudando dados. Há poucos anos ganhou notoriedade na imprensa o caso de um pesquisador coreano da área de células-tronco, considerado um dos líderes mundiais da área. Se o uso de dados fictícios ocorre até mesmo entre os líderes mundiais, certamente está ocorrendo também nos níveis mais “baixos”.
Plágios, inclusive autoplágios: Da mesma forma, a imensa quantidade de artigos publicados hoje em dia e a fácil difusão destes pela Internet propicia a cópia de trabalhos inteiros ou em partes. Um caso notório no Brasil também ocorreu recentemente, em que uma ex-reitora da USP aparece como coautora de um trabalho plagiado. Ocorre até mesmo que um cientista recopie seus próprios trabalhos – parcial ou totalmente – para publicá-los uma segunda vez.
Coautorias fictícias: Trata-se de prática conhecidamente praticada em todo o mundo, em que um grupo de pessoas produz um artigo e coloca como coautores outras pessoas que ou não participaram do trabalho, ou o fizeram de forma marginal. Em geral, aqueles que incluem coautores fictícios são incluídos como coautores em trabalhos posteriores daqueles que foram incluídos. Outra modalidade é a inclusão de coautores renomados, mesmo sem retribuição posterior por esses, pois isto possivelmente facilita a publicação do artigo em revistas de prestígio.
Compadrio de citações: Em vez de negociar uns com outros coautorias, pode-se também negociar citações, já que estas também são usadas como moeda no establishment da Cientometria.
Divisão de trabalhos em LPUs (=Least Publishable Unit): Como o número de artigos publicados é em geral mais importante do que o impacto desses, muitos cientistas optam por dividir bons trabalhos científicos em pequenas partes, cada uma delas contendo novidade somente suficiente para que o trabalho possa ser publicado. Tal prática atenta contra a utilidade das publicações científicas e dificulta o papel dessas como difusoras de conhecimento.
Desincentivo à produção de livros didáticos: Os livros ainda são o melhor veículo para a difusão do conhecimento. No entanto, os cientistas são incentivados a escrever artigos, estes em geral pouco didáticos e incompletos.
Desincentivo ao ensino com qualidade, ao trabalho de extensão, à solução de problemas relevantes: No Brasil, a grande maioria dos cientistas é professor de universidades públicas. Em princípio, a principal missão dessas é a do Ensino, com fins de formação de mão de obra especializada de alto nível. A pesquisa científica faz parte natural dessa missão, mas a ascensão na carreira das universidades quase sempre privilegia a produção científica, em detrimento de outras atividades mais ligadas ao Ensino. Nas instituições de pesquisa científica, mesmo as que não possuem cursos de graduação ou pós-graduação, a preocupação com a produtividade científica acaba por desviar o interesse dos cientistas para a solução de problemas mais fáceis, em geral de menor alcance para a sociedade.
Desperdício de talentos: Os jovens, principalmente os alunos de cursos de graduação ou pós-graduação, estão sendo treinados para se tornarem uma nova geração ainda mais preocupada com a produtividade e menos com a relevância do trabalho científico como meio para o progresso científico, tecnológico ou cultural.
Perda de credibilidade da comunidade científica: Se os cientistas passam a se preocupar somente com sua carreira, produzindo cada vez mais artigos que respondem pouco ou nada às demandas da sociedade que os financia, é de se esperar que em algum momento este financiamento irá diminuir ou cessar. Um sintoma de que a credibilidade dos cientistas está em baixa é a conotação negativa que o termo “acadêmico” vem tomando no Brasil. Se na Grécia antiga, a Academia de Platão era o santuário do conhecimento mais alto daquela sociedade, hoje no Brasil o que chamamos de acadêmico é quase sempre algo pomposo, porém inútil.
A Capes e a pós-graduação no BrasilO sistema de pós-graduação no Brasil é parte fundamental da produção da Ciência, da Tecnologia e da Cultura, pois é lá que são formados os cientistas. A Capes é uma agência ligada ao Ministério da Educação, que participa do fomento dos cursos de pós-graduação e realiza a avaliação dos mesmos. A avaliação da Capes foi certamente importante para o crescimento da qualidade do sistema, mas tenho observado nos últimos anos uma forte tendência de incentivar o que não deveria sê-lo. Irei exemplificar daqui em diante esta tendência.
A Capes ranqueia os programas de pós-graduação no Brasil em níveis de 1 a 7 em ordem ascendente de “qualidade”. Para que consigam mais recursos financeiros e humanos, os cursos de pós-graduação devem procurar aumentar seu nível no ranking. No entender da Capes, ter um corpo docente mais produtivo e formar alunos em menos tempo são critérios que permitem a ascensão dos cursos no ranking.
A Capes ranqueia também as revistas científicas através do sistema Qualis. A intenção de tal sistema seria a de tentar qualificar a produção científica dos cursos de pós-graduação através da indicação de quais revistas seriam “melhores”. Mesmo que fosse boa a intenção, há que se notar que parte da premissa errada de que a qualidade de uma produção está correlacionada à pretensa qualidade da revista que a publicou. Além do mais, a ferramenta que deveria, segundo a Capes, ser utilizada somente para qualificar cursos de pós-graduação tem sido extrapolada para a classificação também dos professores desses cursos. Um exemplo típico é o regulamento do próprio curso de pós-graduação de que participo (ver [5]).
A respeito do Qualis deve-se salientar que a Austrália já possuiu um sistema semelhante ao nosso e já desistiu dele. Ainda a esse respeito, há um documento [6] da União Matemática Internacional e do Conselho Internacional de Matemática Aplicada e Industrial que propõe a criação de um comitê para classificação das revistas da área de Matemática de maneira “honesta e cuidadosa”, de maneira a “ir contra a tendência” de usar dados bibliométricos para a classificação de revistas. O Brasil é citado, junto com Austrália e Noruega, como um dos países que possuem um sistema de classificação do tipo bibliométrico, contra o qual essas associações internacionais se estão insurgindo.
Em consequência dos critérios ranqueatórios da Capes, os cursos tendem a pressionar os alunos e seus orientadores para que minimizem o tempo de duração do curso. Desta forma, o orientador tem chance de publicar mais artigos em revistas mais bem ranqueadas segundo o Qualis. em menos tempo, e orientar mais alunos. O aluno tem também a chance de passar mais rapidamente ou para um curso de pós-graduação de nível superior, ou de entrar no mercado de trabalho.
Em princípio não há nada de ruim nisto, mas o problema é que nesta lógica produtivista ficou esquecido o objetivo principal da pós-graduação: a formação de um mestre ou doutor com sólidos conhecimentos, adquiridos através da realização de um trabalho de pesquisa cuidadoso, o qual possa contribuir para a solução de problemas relevantes da sociedade, ou aumentar a cultura da humanidade. Não é pressionando para a diminuição do tempo dos cursos que tal objetivo será cumprido.
Os critérios da Capes tendem também a retirar dos corpos docentes dos cursos de pós-graduação os pesquisadores menos produtivos. Uma vez que para subir no ranking da Capes é melhor ter um corpo docente muito produtivo do que um grande número de pesquisadores, os cursos formulam regras que efetivamente alijam da possibilidade de lecionar e orientar alunos na pós-graduação professores e pesquisadores de muito mérito. Obviamente, um corpo docente menor significa também um menor número de vagas para alunos.
Todos perdem com essa política nefasta. Perdem os professores alijados, pois vêem diminuída a sua capacidade de contribuir também com a pós-graduação. Perdem potenciais estudantes, que estão demandando vagas em cursos de mestrado e doutorado, vagas essas que poderiam ser disponibilizadas à sociedade caso professores menos produtivos, mas com perfeita capacidade de pesquisa e orientação, estivessem presentes nos cursos. Principalmente, perde a sociedade com os mestres e doutores que não foram formados por causa da falta de vagas, pessoas que poderiam dar grandes contribuições à pesquisa e ao ensino no Brasil.
Conclusões
Nós, cientistas, estamos hoje escravizados pela Cientometria. Precisamos nos libertar destes grilhões, ou então a Ciência passará a ser inútil e, ao final, a sociedade perderá o interesse por financiá-la. Por isto, deixando de lado a métrica, registro como um protesto humorístico a minha versão do Navio Negreiro:
Andrada! este ranking manda aos ares!
Colombo! muda as regras desta Capes!
Colombo! muda as regras desta Capes!
Referências
[1] F. Laloë, R. Mosseri, L’évaluation bibliométrique des chercheurs: même pas juste… même pas fausse!, Reflets de la Physique 13, pp. 23, 2009.
[2] Blog Democracia e transparência em C&T, http://democracia-e-transparencia-em-ct.blogspot.com/.
[3] L. Smolin, The Trouble with Physics, Houghton-Mifflin, 2006.
[4] R. Adler, J. Ewing, P. Taylor, Citation statistics, disponível em http://www.mathunion.org/fileadmin/IMU/Report/CitationStatistics.pdf.
[5] Resolução PGMAT 01/2007, disponível em http://www.mat.ufmg.br/pgmat/resolucoes/Res07-01.pdf.
[6] Report of the journal working group to the ICIAM board and IMU executive committee, 30 june 2011, disponível em http://www.iciam2011.com/images/stories/ICIAM2011/wg_jrp_report.pdf.
Nenhum comentário:
Postar um comentário