Etikettarkiv: SwePub

Nytt om ORCID

ORCID (Open Researcher & Contributor ID) som vi tidigare skrivit om är ett internationellt id för forskare som nu har över 250 000 registrerade medlemmar och över 80 anslutna medlemsorganisationer (däribland Chalmers).

orcid-logoVetenskapsrådet kommer inom kort att med stor sannolikhet ta beslut om att göra ORCID obligatoriskt i alla forskningsansökningar från och med någon gång i vår. Detta framkom på gårdagens workshop om utvecklingen av SwePub för att möjliggöra bibliometriska analyser – där vi deltog med två representanter från Högskolan i Halmstad.

Sedan en tid tillbaka finns även ett ORCID-fält i DiVA. Detta kompletterar (men ersätter inte) fältet för lokalt användar-id (vilket behövs för att koppla DiVA-posterna till personalkatalogen och CV-databasen). För dig som registrerat dig i ORCID (vilket vi rekommenderar) har vi nu möjlighet att genom en batchfunktion enkelt lägga till detta på alla dina DiVA-poster. Kontakta DiVA Helpdesk för hjälp med detta!

Apropå bibliometriska mått och deras begränsningar

När man använder sig av bibliometriska metoder för att analysera och utvärdera forskning är det viktigt att inte bara använda sig av exakta definitioner av vad det är man mäter, utan också att man tydligt klargör och är medveten om metodologins begränsningar – det vill säga vad som faller utanför de givna mätområdena, eller så att säga utgör de ”vita fläckarna” på kartan.

Tolkning krävs

Bibliometriska studier handlar om att ta fram statistiska mätvärden för ett antal indikatorer om publiceringsproduktivitet. En indikator kan till exempel visa på antalet publikationer av en viss typ som registrerats i en databas eller hur många gånger en viss artikel har citerats.

Som det framgår av själva termen indikatorer vill man genom dessa indikera (”peka på”) någonting om helheten. När man på detta sätt med andra ord kvantifierar vissa delaspekter av en given datamängd krävs det dock alltid en tolkning.

För att kunna göra en tillförlitlig tolkning krävs i sin tur såväl en förståelse för metodologins begränsningar som en ingående kännedom om omständigheterna för det faktiska sammanhang som ligger till grund för mätningen. Det är just av denna anledning som som någon form av självvärdering ofta spelar en så betydelsefull roll i processen.

Kartan och landskapet

När vi talar om bibliometri skulle man kunna göra en liknelse med varför och hur man ritar en karta över ett landskap. ”Landskapet” i det här fallet är exempelvis en forskningsmiljös sammanlagda publicering och ”kartan” är då den bibliometriska studien.

Någon form av karta kan mycket väl vara nödvändig för att överhuvudtaget kunna skaffa sig en överblick över ett område och därmed medvetet kunna orientera sig. Kartan kommer dock alltid – och i likhet med varje teoretisk modell eller kunskapsrepresentation –  att på ett eller annat vis vara en dimensionsreducerad förenkling av den mer komplexa helheten. Frågan är bara vilka delar som lyfts fram, eller vilka ”glasögon” kartan så att säga erbjuder en att betrakta landskapet med.

De metoder man väljer att använda sig av i sin bibliometriska ”kartritning” får av naturliga skäl olika konsekvenser för resultatet. Inte minst kan det slå olika beroende på vilket forskningsämne man väljer att titta på. Därför är det begripligt att kritik mot de gängse bibliometriska metoderna snarare kommit att bli mer regel än undantag i många läger. Samtidigt används bibliometriska analyser allt oftare som ett sätt att försöka ta fram objektiva kriterier för kvalitetsutvärderingar, ranking och medelstilldelning.

Vanlig kritik och några sätt att kompensera för och tillmötesgå denna

En högst relevant och också utbredd kritik är exempelvis att Web of Science (WoS) – den databas som än så länge är den enda som medger datauttag när det gäller citeringsanalys – har en bristande täckning, och då framförallt när det gäller humaniora och samhällsvetenskap. Citeringsanalysen utgår enbart från kollegialt granskade artiklar indexerade i just WoS, vilket då utesluter forskningsresultat publicerade inte bara i monografier utan också i konferenstryck.

För att till viss del kompensera för att man inom olika ämnen sinsemellan kan ha mycket olika olika publicerings- och och citeringsmönster har man tagit fram så kallade fältnormerade indikatorer. Dessa utgår från det genomsnittliga värdet inom ett visst ämnesområde, för att man så att säga skall undvika att jämföra äpplen med päron. Men inte heller dessa fältnormerade indikatorer går fria från kritik. Så har till exempel Peter Sjögårde, bibliometrisk analytiker på KTH, nyligen uppmärksammat ett amerikanskt initiativ som kritiserar indikatorn Journal Impact Factor. Liknande kritiska synpunkter finns även redovisade under rubriken ”Citation impact” på den nya webbtjänsten PhD on Track, som vi tidigare tidigare skrivit om.

Ett alternativt och kompletterande sätt att mäta genomslag på – förutom just genom citeringar – är rankning av publiceringskanaler. En poängberäkning sker då utifrån hur pass god vetenskaplig kvalitet en viss tidskrift eller ett förlag av en expertgrupp anses hålla inom ett ämnesfält. Det är denna princip som ligger till grund för den så kallade norska modellen, vilken blivit ett slags standard även här i Sverige.

Några vidare perspektiv

I regeringens senaste Forsknings- och innovationsproposition (2012/13:30) för perioden 2013–2016 föreslås bland annat att den nationella publikationsdatabasen SwePub skall utvecklas så att den skall komma att kunna ersätta den bristfälliga WoS som grund för bibliometriska utvärderingar. Då Högskolan i Halmstad via DiVA redan i dag levererar metadata till SwePub deltog vi i mars i år i en första workshop om framtida samverkan och standardisering kring detta.

Fördelen med att använda data direkt från DiVA är att den enskilde forskaren själv kan påverka vilket material som ligger till grund för analysen. I vår egen pågående forskningsutvärdering ARC13 har vi till exempel, som första lärosäte hittills, kunnat extrahera data från adressfältet i DiVA-posterna för att göra samverkansanalyser.

När det kommer till utvärdering och mätning av vetenskapligt genomslag handlar det hela i slutändan ändå till stor del om vilka intentioner man har med sin forskning, samt vilket typ av genomslag man eftersträvar. I en gedigen handbok utgiven av brittiska LSE Public Policy Group för hur man inom samhällsvetenskap och humaniora kan maximera sitt vetenskapliga genomslag skiljer man på akademiskt genomslag respektive externt genomslag i förhållande till det omgivande samhället. Sådana externa variabler bör man med fördel också försöka att inkludera i sina tolkningar och självvärderingar.

För att sammanfatta och lyfta fram huvudpoängen i dessa stycken: Någon form av bibliometri må vara nödvändig, men det är enbart uttolkningen av denna som kan kompensera för dess inneboende begränsningar och ge den dess fulla betydelse och sammanhang.

Noteringar från workshop om registrering i SwePub

bild6I regeringens forskningspolitiska proposition för de närmaste fyra åren föreslås att den svenska databasen SwePub skall vidareutvecklas för att kunna användas till bibliometriska analyser. Som man mycket riktigt konstaterar så är täckningen av exempelvis humaniora och delar av samhällsvetenskapen i den internationella databasen Web of Science – som i dag ofta används som den huvudsakliga bibliometriska källan – nämligen mycket bristfällig.

Ett projekt inom ramen för programmet OpenAccess.se har under 2012 bedrivits vid KTH för att undersöka förutsättningarna för att använda just SwePub som analyssystem för publicering vid svenska lärosäten. Man har besökt ett tiotal lärosätens forskningsbibliotek för att där undersöka hur man jobbar med registrering i de lokala publikationsdatabaserna. Som ett resultat av detta har man identifierat åtta problemområden där man skulle behöva finna ett gemensamt konsensus.

För att få feedback på de preliminära, enhetliggörande rekommendationer som projektgruppen formulerat kring dessa problemområden inbjöd man den 7:e mars till en workshop på KTH:s bibliotek. Två representanter från vart och ett av de SwePub-anslutna lärosätena var inbjudna. Då vi via DiVA också levererar poster till SwePub såg vi det som självklart att delta i de gruppdiskussioner man ordnade för att där vara med och utbyta synpunkter. Inte minst kunde vi dela med oss av de erfarenheter vi samlat på oss i samband med det rigorösa kvalitetsarbete i DiVA som vi genomfört inför forskningsutvärderingen ARC13.

Många viktiga frågeställningar ventilerades under dagen och vi knöt flera nya kontakter med kollegor runt om i landet som också jobbar med sådant som forskarstöd, publiceringsfrågor och bibliografisk granskning i DiVA. Workshopen var ett första led i vad som sannolikt kommer att utvecklas till ett mer permanent referensgruppssystem för standardisering i SwePub och det känns kul att vara med på banan redan i detta tidiga skede.