Vuelvo sobre una cuestión de la que me estaba ocupando antes de interrumpir durante más de un año este blog, por razones de ingreso hospitalario demasiado prolongado cuya responsabilidad sé demasiado bien a quien imputar pero que no viene aquí al caso. Se trata de cómo medir los resultados de la investigación científica en Geografía, y por añadidura en Ciencias sociales y Humanidades. De sobra es sabido que todas ellas se han lanzado certera pero acríticamente por el camino de las ciencias físicas y aplicadas, el llamado de la excelencia (nunca me ha parecido una palabra bien vertida al castellano), lo que significa la medición a través de la publicación en revistas de alto ranking o índice de impacto.
La Asociación de Geógrafos Españoles editó el año pasado un voluminoso libro sobre La investigación geográfica en España cuyos coordinadores son Teodoro Lasanta, investigador del Instituto Pirenaico de Ecología y el anterior presidente de la Asociación Javier Martín Vide, catedrático de Geografía Física de la Universidad de Barcelona. Temo que el enorme esfuerzo desarrollado no haya rendido todavía todos sus beneficios. El primer capítulo introductorio del libro me lo encargaron, sobre la evolución de la Geografía española durante los últimos decenios, y en él ya me ocupaba de cómo se estaban midiendo los resultados. Algo más tarde desarrollé más específicamente el tema sobre “La Geografía y la evaluación científica” en un número homenaje al profesor argentino Alfredo Bolsi de las Breves contribuciones del Instituto de Estudios Geográficos que él fundó en la Universidad de Tucumán.
Reproduzco aquí las conclusiones de aquel análisis y desearía fervientemente que ello contribuyera a que nuestra comunidad de geógrafos de carrera académica e investigadora reflexionara sobre cuestión tan fundamental para el desarrollo de nuestra campo de conocimiento como el del valor de sus resultados científicos. Una ciencia, la geografía, del que la filósofa Amelia Valcárcel, dijo públicamente en ocasión solemne “la más antigua y la más actual” o si se quiere una de las más requeridas en la actualidad, cosa que confirman las editoras de la revista (de culto) L’Espace géographique al celebrar “los cuarenta [años] gloriosos de la revista”: “La geografía es [hoy] de todas las disciplinas, y [debe] serles útil”
Reproduzco aquí la conclusión final de mi texto de homenaje a Bolsi: Los protocolos de evaluación basados en los factores de impacto, que se están generalizando con formas miméticas en toda las disciplinas consiguen sin duda que los geógrafos ganen en visibilidad y sean más leídos internacionalmente, lo que es muy saludable, pero también pueden dar lugar a distorsiones y comportamientos preocupantes. Compréndase bien que eso no significa apostar por medios menos transparentes y de menos visibilidad. Todo lo contrario: apostamos por la revisión experta de la actividad investigadora en todos los momentos. Como también porque a los criterios de excelencia se sumen los de relevancia de la investigación. Pero es indispensable no dejar que los procedimientos sirvan para distorsionar: la métrica de los factores de impacto (IF) ha sido concebida para valorar revistas, y no artículos, y mucho menos aún trayectorias investigadoras como se ocupó de poner de manifiesto un informe de la Cámara de Comunes (Peer Review in Scientific Publications).
También el editor-jefe de Science en su editorial del 17 de mayo de 2013 se asombraba de haber visto currículos en los que se mencionaba los factores de impacto hasta con tres decimales (¡hasta con cinco los he visto yo en España!) y afirmaba que el mal uso del IF de las revistas puede tener efectos destructivos en los campos de conocimiento menos citados y menos normalizados, como las ciencias sociales y la ecología, en la medida en que invita a sesgos y trampas métricas. ¡Qué decir de la geografía!
Conviene recordar lo que están diciendo muchos científicos de la biología molecular o de la física: que los científicos están cada vez más desesperados por publicar en las muy pocas revisas top; una vez más, que el IF a las que clasifica es a las revistas, no a los artículos; y por ello que conocer los títulos y contar los artículos por impacto de las revistas no puede en absoluto sustituir a la lectura experta para saber lo que de verdad contienen de más conocimiento. No caigamos los científicos sociales y los humanistas en la fe ciega de los conversos, cuando a los que queremos parecernos están de vuelta.
¡Qué bien! Nos alegramos, mucho, de tenerte aquí de vuelta. Andrés
Es difícil convencer a alguien de que se va por un camino errático cuando se ha emprendido, probablemente con poco convencimiento, pero con evidentes resultados profesionales y económicos. Es difícil evaluar los resultados de la ciencia y la investigación, requiere del evaluador un buen conocimiento de las ciencias y un juicio justo, basado en criterios científicos. Para salvar estas dificultades se propone evaluar a partir de los llamados «criterios objetivos», criterios que descargan de responsabilidades y juicios personales, criterios que muchas veces permiten cuantificar y operar con los números, lo cual puede llenar de satisfacción al evaluador y liberarle del peso de su responsabilidad. Los criterios subjetivos siempre están presentes en el que evalua, por mucho que se objetivice el proceso, lo importante es saber en que se fundamentan.
Algún día, la historia de la Ciencia pondrá al descubierto los errores del actual proceso de evaluación de las Ciencias Sociales, y la calidad de los evaluadores que acometieron este proceso.
Que gran alegría escontrar de nuevo tus reflexiones… El post de Japón, delicioso! como me ha recordado la lectura del librito de Berque ‘Médiance, de milieux en paysages’. Un abrazo
Y qué contenta me pone reencontrarte Lluís. Creí que te me habías perdido… Qué tal te van los trabajos? Y la vida? yo cada vez más convencida de que tenemos que seguir estudiando nuestros orígenes, si no no superaremos la relativa marginalidad en la que nos hemos metido…Un abrazo grande