En blogg från Högskolan i Borås

måndag 3 januari 2011

Den uppmätta forskaren

– om användandet av bibliometriska indikatorer för forskningutvärdering och vilken roll spelar biblioteket?

Gästinlägg av Stefan Carlstein, student på kursen Vetenskaplig publicering

-----

Tidskriften Nature hade i ett nummer i somras ett tema som behandlade bibliometriska indikatorer för forskningsutvärdering. En illustration av en forskare i vit labbrock vars ansikte består av ett utdraget måttband pryder omslaget. Titeln på numret är Measuring up? The metrics that shape your career. I uttrycket ”measuring up” ligger inte enbart betydelsen att mäta upp någonting utan också frågan om man har kvalificerat sig enligt ett givet måttsystem. Är du en tillräckligt bra forskare?

I Sverige har man precis börjat använda citeringsanalys för tilldelning av forskningsmedel till svenska lärosäten. Märk väl att det fortfarande gäller en mindre del (5% samt 5% för hur mycket externa forskningsmedel man har lyckats dra in) av hela medelssumman som på detta sätt har konkurrensutsatts (Prop. 2008/09:50).

I Sverige har debatten bland annat kommit att gälla frågan om bibliometrin lämpar sig för att mäta all slags forskning. Forskning är inte en homogen aktivitet, att bedriva laboratoriebaserad sådan i internationella forskningslag och att ensam göra textanalyser av en för stora delar av världen okänd svensk poet är inte riktigt samma sak, de resulterar ofta i helt olika publikationstyper. Janken Myrdal (2008, s. 42) menar att då citeringsdatabaser som framförallt ISI Web of Science (WoS), som för tillfället utgör grunden för citeringsanalyserna, representerar de naturvetenskapliga forskningstraditionerna mycket bättre än humaniora och samhällsvetenskap, kommer citeringsincitamentet som ligger i att skriva artiklar som dyker upp i WoS styra om det humanvetenskapliga arbetsättet på ett olyckligt sätt.

Peter Weingart (2005, s. 125) hävdar att när bibliometriska indikatorer används som verktyg vid medelsfördelning kommer forskarna att agera utifrån dessa stimuli, och det är också detta som har setts som en av poängerna. Målet är att forskarna ska publicera sig i så högt rankade tidskrifter som möjligt för att få så stor spridning av sina forskningsresultat som möjligt (Weingart, 2005, s. 125). Men i och med att publicerings- och citeringskulturen skiljer sig så starkt mellan fälten har frågan varit om det verkligen går att jämföra dem för att sedan kunna fördela pengar.

Det är här som de tekniska aspekterna av bibliometrin kommer in. Man kan få fram ämnesspecifika medelvärden där en artikel inom en specifik kategori enbart jämförs med hur mycket andra artiklar inom den kategorin citeras. I och med att olika fält har olika publiceringstraditioner behöver man sedan räkna ut hur många artiklar en normalproducerande forskare inom ett visst område publicerar (Sandström & Sandström, 2008). Det är bland annat hur denna metod, som kallas Waringmetoden, används som Vetenskapsrådet har ställt sig starkt kritiskt till (Fröberg, Gunnarsson, Jonsson, & Karlsson, 2010).

Det som har setts som det lockande i bibliometrin, i synnerhet för en politiker, är att istället för det subjektiva och ibland kritiserade peer review-förfarandet få i sin hand en modell som lovar högre transparens och statistiskt objektiva mått på hur stort genomslag forskningen egentligen får (Weingart 2005 s 121). Detta är en process som kan ses som att forskarsamhället har förlorat en del av sin tidigare autonomi till förmån för resultatstyrda politiker (Weingart, 2005, s. 121).

Hur ska då biblioteken förhålla sig till användandet av bibliometriska indikatorer på olika avdelningar runtom på våra lärosäten? Hur kan vi sprida information om detta ämne utan att bli okritiska mediärer och enbart gå forskningspolitikernas ärenden. Biblioteket bör spela rollen av en part som har kunskap om och framförallt överblick av bibliometri som fält i allmänhet och bibliometriska indikatorer i samband med utvärdering av forskning i synnerhet. Vi bör inta ett kritiskt förhållningssätt för att sätta in bibliometrin i ett sammanhang och kunna besvara frågorna: vad är den till för, och vad säger indikatorerna och framförallt, vad säger de inte?

Referenser:
Fröberg, J., Gunnarsson, M., Jonsson, A., & Karlsson, S. (2010). Kan man använda Waringmetoden för att uppskatta antalet forskare? Stockholm: Avdelningen för forskningspolitisk analys, Vetenskapsrådet. Hämtad från http://www.vr.se/download/18.5adac704126af4b4be2800019633/Waring_VRReport_No5_2010.pdf

Myrdal, J. (2008). Att mäta forskning - naturvetenskapen som norm. Kulturella perspektiv, 17(2), 41-46.

Prop. 2008/09:50. Ett lyft för forskning och innovation. Stockholm: Utbildningsdepartementet.

Sandström, U., & Sandström, E. (2008). Resurser för citeringar. Stockholm: Högskoleverket. Hämtad från http://www.hsv.se/download/18.8f0e4c9119e2b4a60c80006308/0818R.pdf

Weingart, P. (2005). Impact of bibliometrics upon the science system: Inadvertent consequences? Scientometrics, 62(1), 117-131.

Inga kommentarer:

Skicka en kommentar