Busca no site 

 
 Quem somos
 Consultoria
 Conteúdo
 Camarote
 Assinatura
gratuita
   Escolha seu tipo de busca:
  
  Busca avançada
Jornalistas e
cientistas
Perguntas
freqüentes
Irreverência
Privacidade
Conteúdo
Anuncie
Assinatura
gratuita
 
Administração e contabilidade: Rodrigues & Associados. Realização: Baú de Idéias Jornalismo. Agência de Notícias Prometeu®. Todos os direitos reservados.
badboys-lea
  Cuidado com os rankings científicos

Por que deve-se temer as avaliações sobre quem produz mais ciência, e como essas avaliações discriminam o Terceiro Mundo.

Lea Velho
(Professora doutora do Departamento de Política Científica e Tecnológica, Instituto de Geociências, Universidade Estadual de Campinas – UNICAMP)


 
 

    A avaliação do trabalho científico através de indicadores quantitativos é um tema que vem ganhando cada vez mais espaço em estudos acadêmicos e não é por acaso. Essa avaliação, ou melhor, os diversos tipos de avaliações de trabalhos científicos, são um dos critérios utilizados por governos e órgãos multinacionais, como a Unesco ou a Organização Mundial da Saúde, para decidir como direcionar seus recursos destinados à pesquisa e ao desenvolvimento. Trata-se de um instrumento com o qual está-se decidindo quem vai ganhar dinheiro para pesquisar ou quem será tido como improdutivo e que, por isso, vai ter que se contentar com menos ou nenhum recurso. Para os mais diversos donos e gestores de recursos, faz cada vez mais sentido utilizar avaliações da produção científica, pois a disponibilidade de recursos para ciência é limitada e compete com os demais setores de investimento público. Além disso, o procedimento de deixar a decisão de como alocar recursos para ciência exclusivamente com os próprios praticantes dessa atividade é algo questionável e que deixa muito a desejar.

    Portanto, são as avaliações quantitativas dos trabalhos científicos utilizadas internacionalmente que apontam para este ou aquele cientista, esta ou aquela área do conhecimento, este ou aquele país, como mais férteis ou mais produtivos. E é aqui onde reside um problema grave para o qual os avaliadores da ciência nos mais diversos níveis e a comunidade acadêmica em geral deveriam atentar. Convém aqui também um grave alerta aos jornalistas, especialmente os especializados na cobertura de temas científicos, que muitas vezes repercutem a divulgação dessas avaliações com manchetes seguidas de comentários do tipo "o cientista brasileiro que mais publicou, ou que é mais citado, é fulano de tal", ou ainda mais grave, "a ciência brasileira com maior número de citações em trabalhos científicos é esta ou aquela". O grande problema em generalizações do tipo, tão ao gosto da mídia, é que elas podem embutir graves erros, motivados por alguns vícios de origem dos índices usados para essas avaliações.

    Falemos do índice que serve de base para quase todas avaliações da produção científica, o Science Citation Index (SCI), compilado desde 1963 pela empresa americana Institute for Scientific Information (ISI), que mantém a maior base de dados bibliográfica, hoje disponível também via internet. O SCI coleta citações a autores feitas em artigos publicados nas revistas que tem indexadas (há apenas três brasileiras num total de 3.762 revistas. Na lista adicional intitulada "SCI Expanded" há quinze revistas brasileiras para 5.891 indexadas) e elabora, com estas citações, um lista dos que mais apareceram, gerando os conceitos e métodos para medir a literatura científica. O índice lista publicações (artigos e periódicos), citações e autores (cientistas individuais, projetos, departamentos, institutos, países), agregados das maneiras mais diversas (por escolas de pensamento, por grupos teóricos, por especialidades, "redes", aglomerados etc), a fim de representar estrutural e graficamente os domínios e níveis da atividade de pesquisa na ciência. Esse tipo de avaliação também foi impulsionado pelos vastos avanços tecnológicos que permitiram uma base de dados computadorizada onde uma informação pode ser facilmente encontrada, como quantas vezes tal cientista foi citado ou qual disciplina tem maior número de citações. Aparentemente simples e direto, e por isso adotado sem cerimônias por quase todos os que se dispõem a avaliar produção científica, o SCI enquanto base de dados, de fato, apresenta uma série de problemas, tanto do ponto de vista conceitual como metodológico.

    A premissa básica dos estudos de citações como medida do desempenho científico é que uma publicação deve ter certa qualidade básica para gerar impacto (isto é, o número de citações que um artigo recebe num dado período). Essa premissa, no entanto é bastante discutível por uma série de problemas, tais como:

• Há uma reconhecida tendência dos cientistas de se auto-citar (fazer "propaganda" do seu próprio trabalho) e de citar seus amigos, já que conhece bem seus trabalhos anteriores e os de seus amigos.

• O sistema de comunicação científica internacional é bastante imperfeito e o acesso a trabalhos varia consideravelmente, o que torna questionável a atitude de mensurar algo apenas pelas citações.

• Há uma barreira linguística que muitas vezes separa os cientistas de determindas publicações indexadas no SCI, de onde são colhidas as citações.

• Trabalhos de pesquisa fundamental são muito mais citados do que os experimentais, o que não significa que são mais importantes.

• Práticas de publicação variam entre as áreas do conhecimento. Não se pode, por exemplo, dizer que a física é mais produtiva que a matemática com base nos trabalhos publicados de uma e outra. São ciências diferentes, com culturas diferentes no que se refere à divulgação em revistas científicas.

• Trabalhos são citados sem terem sido lidos e analisados cuidadosamente.

• Citações são muitas vezes feitas de segunda mão, isto é, levantadas de um outro artigo, sem terem sido lidas e sem dar crédito ao trabalho que primeiramente as apontou.

• Citações são muitas vezes colocadas depois que o trabalho de pesquisa está pronto, quase como uma "decoração" para se seguir o "ritual" acadêmico.

Vícios de origem

    Há também alguns vícios de origem nas avaliações da ciência por meio de índices como o SCI. Elas se baseiam muitas vezes em premissas que não são verdadeiras. Uma delas é a de que o objetivo da ciência é unicamente, ou principalmente, a produção de novos conhecimentos científicos, como os que são divulgados em periódicos. Isso ignora outros objetivos da pesquisa científica tais como a contribuição para solução de problemas nacionais, regionais, locais; a contribuição para o desenvolvimento tecnológico; a formação e treinamento de novos pesquisadores e de pessoal qualificado para as profissões; o aumento do prestígio nacional e internacional de um país (o que, nas sociedades modernas, tem uma conotação de poder); garantia da autonomia de um país num determinado setor e a influência sobre a visão de mundo da sociedade em geral. Esse aspectos todos não são considerados pelos indicadores de "output" usados convencionalmente, tais como as citações em periódicos.

    Outra premissa equivocada na utilização de índices como o SCI é que o produto da ciência e sua qualidade refletem-se integralmente nos instrumentos escritos formais de comunicação científica, particularmente nos periódicos científicos, ou seja, os cientistas são recompensados pelas contribuições originais que fazem ao avanço do conhecimento científico por meio da estima e reconhecimento que recebem de seus pares que lêem seus artigos publicados.

    Ocorre, entretanto, que vários autores consideram que a publicação formal é apenas um dos tipos de comunicação em ciência -- menos significativo e radicalmente diferente dos meios informais -- e portanto, acreditam que faz pouco sentido derivar medidas quantitativas a partir da literatura científica. Eles argumentam que o conhecimento tácito -- por exemplo, a aprendizagem de técnicas de laboratório durante o treinamento e os processos de "negociação" entre colegas -- é parte constitutiva da ciência e que, por definição, não pode ser descrita na literatura científica. Ignorar esses meios de comunicação informal, como os indicadores quantitativos convencionais fazem, é mais do que simplesmente escolher uma técnica analítica; significa a perpetuação de um relato por demais racional dos processos científicos, que sistematicamente obscurece suas características fundamentais. E, "oferecendo uma visão geral objetiva da ciência 'como ela é', tais métodos implicam um enfoque impropriamente positivista e realista", nas palavras de D. Edge (1).

    Além do conhecimento tácito, outros tipos de conhecimento gerados pela pesquisa podem não chegar até a literatura científica publicada por uma série de motivos que podem ser chamados de sociais: falta de motivação em função do sistema de recompensa vigente; dificuldade de acesso aos periódicos científicos; cláusula de confidencialidade imposta pela institutição em que trabalha etc. Mesmo ignorando essas objeções, para transformar uma contagem de publicações em uma medida do conhecimento gerado, tem que se admitir que todo artigo contém a mesma contribuição ao conhecimento -- apesar dessa premissa ser muito pouco plausível.

    Na verdade chega a haver um certo consenso no sentido de que número de publicações não reflete qualidade em ciência, e por isso é que se lança mão da contagem de citações recebidas por um determinado trabalho como medida de sua qualidade. Essa equivalência de número de citações com qualidade de um artigo citado é provavelmente o aspecto mais controverso e debatido em toda a literatura sobre indicadores científicos. Por mais de vinte anos, alguns sociólogos têm alertado para o fato de que dados de citação não deveriam ser usados em pesquisa até que eles fossem melhor entendidos. Um bem conhecido "aviso prévio" veio de Kaplan (2) que sentia que "é fácil demais fazer inferências injustificadas a partir de análise de citações", seguido por Mulkay (3), que afirmava que "o uso dos padrões de citações […] claramente envolve uma teoria de citação que está longe de ser satisfatoriamente elaborada". Além desses autores, vários outros têm enfatizado que a análise de citações requer, urgentemente, fundamentos epistemológicos mais seguros e que qualquer relação entre citação e comportamento dos cientistas só pode ser estabelecida por decreto do analista. Apesar disso, dados de citação têm se tornado cada vez mais usados, ao ponto de que as observações de Kaplan no seu artigo inovador de 1965 serem tão relevantes hoje quanto eram naquela época.

    Outra limitação frequentemente apontada dos indicadores científicos de "output" é que eles não levam em consideração as diferenças significativas na organização, no sistema de comunicação e no comportamento dos cientistas das diferentes áreas do conhecimento, de diferentes países, e de naturezas diferentes de pesquisa -- básica e aplicada. O fato de que a quase totalidade dos estudos empíricos que tentaram estabelecer as relações entre citações e reconhecimento terem sido conduzidos nos EUA e principalmente na área de física no contexto acadêmico, torna a extensão dos indicadores para as outras áreas, países e contextos, passível de questionamento. Principalmente quando já se dispõem de informações substantivas pelo menos sobre as diferenças que existem entre áreas do conhecimento, e mesmo entre subáreas dentro da mesma área.

    Controvérsias estendem-se também ao aspecto técnico da compilação de informações para construção dos indicadores, isto é, `a metodologia usada na formação da base de dados. Um problema técnico bastante sério com os indicadores de "output", em particular, mas que se aplica aos indicadores científicos em geral, é a falta de um referencial contra o qual se possam comparar as medidas obtidas. Conforme enfatiza Morison (4), "ninguém tem qualquer idéia real sobre qual proporção da população científica deveria estar fazendo radioastronomia, quantos artigos deveriam ser publicados a cada ano, ou deveriam ser citados por quantos europeus". Dessa maneira, o que se acaba fazendo é comparar um país com outro, ou o presente com o passado. Esse critério, no entanto, não nos dá nenhuma garantia de estarmos caminhando no sentido desejado.

Prioridade ao Primeiro Mundo

    Junte-se a isso as tendenciosidades do SCI em favor de países cientificamente centrais e de língua inglesa que são amplamente conhecidas e reconhecidas pelos próprios autores que as usam em seus estudos de avaliação de pesquisa, caso de Frame (5) e Blickenstaff & Moravcsik (6).

    O número de citações quando usado particularmente para avaliar pesquisa em países periféricos tem pouca aplicabilidade. Embora considerando que citação indica impacto, é óbvio que não pode existir impacto sem visibilidade. Assim, para certas áreas específicas de pesquisa nas quais as contribuições à pesquisa internacional é um objetivo legítimo e reconhecido, as citações podem ser indicadores parciais úteis da visibilidade internacional dos pesquisadores. Não se deve esperar mais que isso ou que o número de citações sirva como instrumento de monitoração para comparar unidades de pesquisa trabalhando no mesmo campo (departamentos, institutos) dentro de um país ou entre países diferentes.

    Quando as fitas contendo as informações do SCI foram descobertas como instrumentos para se estudar a distribuição da ciência no mundo é evidente que a América Latina não ia escapar ilesa de ter o esforço científico de seus países comparado entre si e com o dos outros países do mundo. Começou-se então a verificar que o critério está cheio de falhas quando se realiza esse tipo de comparação. Alguns estudos empíricos tornaram esse fato ainda mais evidente. Primeiramente, Roche & Freites (7) demonstraram que a contribuição científica da Venezuela era, conforme dados coletados localmente, pelo menos duas vezes maior que aquela estimada pelo SCI. Além disso, Cagnin (8) trabalhou com outra base de dados de literatura científica internacional, o Chemical Abstracts (CA), para avaliar o progresso científico brasileiro na área de química de 1972 a 1982 e, comparando os números do CA com os do SCI, constatou que esse último subestimava consideravelmente a contribuição brasileira na área. Finalmente, num debate levado a cabo nas páginas da revista Scientometrics entre Velho (9) e Moravcsik (10) ficou claro que os dados de publicação e citação obtidos dentro de um determinado país periférico não podem ser comparados com aqueles obtidos para o mesmo país a partir do SCI e, talvez mais importante, que o quadro da ciência que se desenha com o uso de cada uma dessas bases de dados é significativamente diferente.

Pressupostos simplistas para a América Latina

    Ainda que estudos usando o SCI continuem a ser conduzidos, desenvolveu-se um tal descrédito com relação a indicadores científicos derivados dessa base de dados para se analisar a ciência na América Latina, que poucos analistas hoje se aventuram nessa direção. Os responsáveis pela publicação do SCI estão conscientes desse fato, tanto que em 1985 abriram as portas do quartel-general do Institute for Scientific Information, na Filadélfia, para abrigar uma reunião financiada pela Fundação Rockfeller e pela National Science Foundation (EUA), que objetivou especificamente discutir a questão: "A ciência feita nos países de Terceiro Mundo está adequadamente representada nos indicadores bibliométricos internacionais de produtividade científica?". O relatório final dessa reunião menciona que "os participantes estimaram que apenas metade da produção do Terceiro Mundo que atinge os padrões internacionais de excelência está incluída no SCI", como cita Moravcsik (10). Em outras palavras, isso significa que os participantes consideram que basta multiplicar por dois a contribuição dos países periféricos hoje detectada pelo SCI e se obterá a produção científica "real" de qualidade internacional originada desses países. Na verdade, fica claro que não existe evidência que justitique essa conclusão; ela é baseada apenas em dois pressupostos, ambos bastante simplistas e, certamente equivocados:

  1. Que a cobertura incompleta da produção científica do Terceiro Mundo pelo SCI afeta todos os países periféricos e todas a áreas do conhecimento da mesma maneira. Sabe-se que isso não é verdade; o próprio Frame (11) admite, por exemplo que a produção científica brasileira é mais subestimada que a dos outros países latinoamericanos porque está escrita em português. Ao mesmo tempo, Rabkin (12) apurou que a produção científica das ex-colônias britânicas na Africa, porque publicada em inglês, tem mais visibilidade internacional que a de outros países africanos. Além disso, a contribuição científica dos países periféricos é muito maior em certas áreas de pesquisa e especialidades do que em outras. Por exemplo, cerca de metade de toda a produção científica em solos tropicais se origina do Terceiro Mundo, como informam Chatelin & Arvanitis (13).
  2. Que a literatura científica produzida pelos países periféricos em suas próprias línguas nativas e não indexada pelo SCI é, geralmente, de baixa qualidade ou sem interesse para a ciência internacional. Ou seja, aquilo que é publicado localmente, e não vai aos periódicos mais conhecidos, não atenderia aos padrões internacionais de "excelência". Esse modelo que faz uma correspondência direta entre visibilidade internacional e qualidade e relevância de pesquisa deve ser enfaticamente questionado. Estudos recentes têm evidenciado que as decisões que os cientistas de países periféricos tomam em relação a qual periódico publicar seu trabalho científico é influenciada por uma série de fatores de ordem social e individual, que não podem ser ditos como mantendo qualquer relação com a "qualidade" da pesquisa. Isso fica bem claro por estudos como o de Velho (14) sobre a comunidade científica da área agrícola no Brasil; ou o de Eisemon & Davis (15), que cobriu as áreas de física, biologia, bioquímica, computação e engenharia elétrica na Coréia do Sul, Formosa, Singapura e Malásia. A contribuição principal desses estudos é que eles procuram, junto aos cientistas, explicações para os comportamentos encontrados. Entre os motivos identificados por eles para que cientistas prefiram publicar seus trabalhos em periódicos locais estão: dificuldade de escrever em inglês; falta de recursos para pagar as despesas de publicação exigidas por vários periódicos internacionais; sentimento nacionalista de reforçar os periódicos de seus proprios países e incentivar colegas a escrever na própria língua; atingir uma audiência que não lê periódicos estrangeiros; dificuldade de acesso aos periódicos internacionais quando nunca se estudou no exterior e o caráter nacional ou regional de alguns tópicos de pesquisa focalizados pelos pesquisadores de países periféricos. Tais motivos apontam para longe da tradicional interpretação de que aquilo que é publicado na literatura científica local dos países periféricos (ou melhor, aquilo que não é "mainstream") é porque tem baixa qualidade, como os trabalhos baseados no SCI querem nos fazer acreditar. Pelo contrário, eles deixam claro que a escolha do canal de publicação pelos pesquisadores é feita com base em uma infinidade de critérios e que esse processo todo tem que ser bem estudado e compreendido antes que se façam julgamentos sobre a contribuição do Terceiro Mundo ao conhecimento científico.

    Em vista desses fatos, fica claro que os dados do SCI dizem muito pouco sobre o tipo e a qualidade de ciência que se faz nos países periféricos e, consequentemente, de pouco servem como ferramenta para auxiliar a tomada de decisões em política de C&T. Mesmo que o mantenedor do SCI, o Institute for Scientific Information, siga recomendações que já lhe foram feitas no sentido de ampliar sua cobertura dos periódicos de "qualidade internacional" do Terceiro Mundo, ainda assim o SCI vai continuar refletindo uma parte apenas do esforço científico desses países, definida através de critérios que nem sempre são os que interessam a esses países.

    É necessário ter claro que os objetivos da pesquisa científica, ou o peso a ser dado a cada dimensão desses objetivos, variam de país para país, variam com o tempo dentro de um mesmo país, variam de instituição para instituição, e mesmo de indivíduo para indivíduo. Esse é um dos grandes problemas da avaliação, pois os cientistas, os planejadores e financiadores de pesquisa (públicos ou privados) e o público em geral têm frequentemete expectativas contraditórias com relação aos objetivos e consequentemente com relação aos produtos das pesquisas, assim como com relação aos padrões de excelência pelos quais elas deveriam ser avaliadas.

    Além disso, os diversos objetivos da pesquisa não estão necessáriamente correlacionados, muito pelo contrário. Isso significa que o fato do sistema científico de um país, uma institutição ou grupo de pesquisa ter um desempenho excelente com relação a um determinado objetivo não é garantia alguma de que ele terá desempenho semelhante com relação aos outros objetivos. Na verdade, é um erro comum eleger uma única dimensão de eficiência como principal e então usá-la como único padrão para fins de avaliação. Os planejadores e financiadores frequentemente demandarão objetivos e resultados que sejam relevantes do ponto de vista econômico ou social e possivelmente considerarão a questão da excelência técnica ou acadêmica como irrelevante ou menos importante. Os pesquisadores, por sua vez, argumentarão que a produção de novos conhecimentos é pré-condição para qualquer trabalho científico ou tecnológico. As autoridades universitárias podem insistir na avaliação de grupos de pesquisa em termos de sua contribuição ao ensino. O erro oposto também é comum e consiste em se aceitar sem critérios ou análises os objetivos de pesquisa auto-definidos pelos grupos de pesquisa ou instituições como único critério para sua avaliação.

    Por tudo isso, é extremamente importante que as avaliações de produção científica levem em consideração que os índices podem abrigar, como já foi dito, inúmeros vícios de origem. A reprodução dessas quantificações em reportagens, como se tem feito no Brasil, pode "comprar" essas informações e equivocadamente repassar ao leitor uma visão do meio científico primeiro-mundista, parcial e totalmente disforme.

1) EDGE, D. (1979), "Quantitative Measures of Communication in Science: a Critical Review", History of Science, vol.17, pp.102-134.

2) KAPLAN, N. (1965), "The Norms of Citation Behavior: Prolegomena to the Footnote", American Documentation, vol.16, nº3, pp.179-184.

3) MULKAY, M.J. (1969), "Some Aspects of Growth in the Natural Sciences", Social Research, vol.36, nº1, pp.22-52.

4) MORISON, R. S. (1982), "Needs, Leads and Indicators", in M. C. La Follette (ed), Quality in Science. Cambridge, Mass.: the MIT Press, pp.33-47.

5) FRAME, J. D.; F. NARIN & M. P. CARPENTER (1977), "The Distribution of World Science", Social Studies of Science, vol.7, pp.501-516.

6) BLICKENSTAFF, J. & M.J. MORAVCSIK (1982), "Scientific "output" in the Third World", Scientometrics, vol.4, pp.135-169.

7) ROCHE, M. & Y. FREITES (1982), "Produccion y Flujo de Informacion Cientifica en un Pais Periferico Americano (Venezuela)", Interciencia, vol.7, nº5, pp.279-290.

8) CAGNIN, M. A. H. (1985), "Patterns of Research in Chemistry in Brazil", Interciencia, vol.10, nº2, pp.64-77.

9) VELHO, L. (1986), "The 'Meaning' of Citation in the Context of a Scientifically Peripheral Country", Scientometrics, vol.9, nº 1-2, pp.71-89.

VELHO, L. (1987a), "The Author and the Beholder: How Paradigm Commitments Can Influence the Interpretation of Research Results", Scientometrics, vol.11, nº1-2, pp.59-70.

10) MORAVCSIK, M. J. (1987), "In the Beholder's Eye: a Possible Reinterpretation of Velho's Results on Brazilian Agricultural Research", Scientometrics, vol.11, nº1-2, pp.53-57.

11) FRAME, J. D. (1977), "Mainstream Research in Latin America and the Caribbean", Interciencia, vol.2, pp.143-147.

12) RABKIN Y. M.; T. O. EISEMON; J.J. LAFITTE-HOUSSAT & E.M. RATHGEBER (1979), "Citation Visibility of Africa's Science", Social Studies of Science, vol.9, pp.499-506.

13) CHATELIN, Y. & R. ARVANITIS (1988), "Research on Soils and Agriculture of LDCs: the Balance Between International and Regional Trends, Social Studies of Science, no prelo.

14) VELHO, L. (1985), "Science on the Periphery: a Study of the Agricultural Scientific Community in Brazilian Universities", tese de Doutorado apresentada `a Universidade de Sussex, Inglaterra.

15) EISEMON, T. O. & C. H. DAVIS (1988), "Publication Strategies of Scientists in Four Peripheral Asian Scientific Communities: Some Issues in the Measurement and Interpretation of Non Mainstream Science", Centre for Cognitive and Ethnographic Studies, McGill University, Canada (mimeo, a ser publicado como capítulo de livro)

 

Agência de Notícias Prometeu ©. Todos os direitos reservados.