Evalueringen av forskerskoler er skivebom

Av Taran Thune, professor, TIK Senter for teknologi, innovasjon og kultur, Universitetet i Oslo

Publisert 8. november 2018

De som har evaluert forskerskolene har en mangelfull forståelse for hvordan forskeropplæring foregår, mener professor Taran Thune.

Taran Thune

Nifu har i de siste ukene mottatt betydelig oppmerksomhet på grunn av evalueringen av de nasjonale forskerskolene. Basert på denne rapporten blir forskerskolene avskiltet for manglende effekter fordi forskerskolene ikke i vesentlig grad har bidratt til økt gjennomstrømming, mindre frafall eller kortere gjennomføringstid i ph.d.-utdanningen. Ei heller har de økt internasjonalt samarbeid målt gjennom internasjonalt samforfatterskap og lengre forskeropphold i utlandet. Ifølge Nifus rapport kan disse målene fungere som indikatorer på kvalitet i forskeropplæringen (de er også lett målbare – som jo er en fordel for en evaluering med begrenset budsjett, i motsetning til faglig kvalitet som er langt mer komplisert). Jeg er sikker på at Nifu har et solid faktagrunnlag for sine konklusjoner, men problemet er at dette er svært begrensede mål på kvalitet i forskersopplæringen, og for forskerskolene heller ikke dekkende for ordningens opprinnelige intensjoner.

Urimelige parametre

For å måle kvalitet, effektivitet og merverdi av forskerskoleordningen må man for det første forstå deres plass og rolle i det norske forskeropplæringslandskapet, dernest må man forstå hva som har vært og trolig fortsatt er deres målsetninger. Konklusjonene til Nifu er sikkert riktige gitt utgangspunktet, men problemet er at måleparametrene er urimelige. Jeg vil legge spesiell vekt på tre ting i min kritikk av evalueringen og dens mandat.

For det første, selv om mandatet for evalueringen viser til et forslag utformet i 2002 om at forskerskolene kunne tenkes å være et virkemiddel for å øke gjennomføringstiden og effektivitet i forskeropplæringen, har ordningen ikke vært utviklet med dette målet for øye. Ei heller har det vært et sentralt tildelingskriterium. Det viser jo også evalueringsrapporten til.

Ikke ansvar for effektivitet

Forskerskolene er heller ikke den mest egnede måten å øke effektiviteten i forskeropplæringen på. Forskerskolene har nemlig ikke ansvar for den formelle oppfølgingen av ph.d.-kandidater i Norge, og heller ikke for å skape insentiver og rammer som gjør at ph.d.-kandidater fullfører i større grad eller på kortere tid. Det er universitetene og enkelte høgskoler som har ansvar for ph.d.-programmene, og som tar opp kandidatene og har ansvaret for å følge dem opp både faglig og administrativt. Ansvar for å øke effektiviteten og hindre frafall ligger hos dem som har det daglige ansvaret for kandidatene, og som tidligere undersøkelser og evalueringer har vist, så gjør de allerede det i betydelig grad (Thune et al., 2012, PhD education in a knowledge society: An evaluation of PhD education in Norway. NIFU rapport 25/2012). Undersøkelser viser da også at alderen på kandidatene og gjennomføringstiden har gått noe ned, og dessuten at ytterlige effektivisering ikke nødvendigvis er positivt for den faglige kvaliteten.

Det er også viktig å peke på at evalueringen av doktorgradsutdanningen fra 2002, hvor forskerskoler først ble foreslått som virkemiddel, beskrev en helt annen situasjon for forskeropplæring enn i dag. Det var langt færre kandidater og en helt annen finansieringsordning for doktorgradsløp, og det var selvsagt før innføringen av ph.d. -graden og kvalifikasjonsrammeverket. Det var også før det omfattende arbeidet de høyere utdanningsinstitusjonene har lagt ned for å profesjonalisere doktorgradsutdanningene i Norge.

Økt nasjonalt samarbeid

For det andre, forskerskolene selv mener at deres viktigste rolle er å heve og sikre kvaliteten i forskeropplæringen, og å skape et godt fagmiljø for ph.d.-kandidater spesielt innenfor små og fragmenterte fagmiljøer. Små miljøer med utilstrekkelige ressurser er hverken bra for kvaliteten eller gjennomføringen i forskeropplæringen. Effektivitet handlet i den opprinnelige utredningen om effektivitet på nasjonalt plan gjennom økt samordning av fragmenterte miljøer. Av den grunn er også nasjonalt samarbeid, og spesielt samarbeid for å tilby gode forskerkurs, den viktigste rollen til forskerskoler. Og her skårer forskerskolene høyt, som Nifu selv sier i sin rapport: «Hovedkonklusjonen i denne evalueringen er at forskerskolene har ført til økt nasjonalt samarbeid mellom forskningsmiljøene og at kvaliteten på tilbudet til doktorgradskandidatene er høy» (Piro et al, 2018, Evaluation of the national research school scheme. Nifu-rapport 13/2018).

Økt samarbeid mellom ulike fagmiljøer for å forbedre forskeropplæringen var det sentrale målet for forskerskolene da som nå. Utvikling av sterkere og mindre fragmenterte fagmiljøer, tettere og varige nettverk mellom vitenskapelige ansatte og mellom ph.d-kandidater ved flere læresteder har vært et positivt resultat av forskerskolene, og det samme har utvikling av gode rutiner og retningslinjer for forskeropplæring. I flere fagområder kan det tenkes at forskerskolene har vært viktige arenaer for spredning av god kunnskap og rutiner om kvalitet i forskeropplæringen, og også ut over de fagområdene som har dratt nytte av ordningen. Evalueringen av forskeropplæringen fra 2012 viste at forskerskoleordningen i stor grad inspirerte til utvikling av «hjemlige» forskerskoleordninger som institusjonene selv organiserte og finansierte. Omtrent 1/3 del av alle ph.d.-kandidater svarte i 2017 at de var tilknyttet en forskerskole. Det er langt flere enn antallet kandidater som formelt er opptatt i en nasjonal forskerskole. En større undersøkelse blant doktorgradskandidater fra 2017 (av blant annet undertegnede) viser da også at disse er noe mer fornøyd med forskeropplæringen enn andre kandidater, men forskjellene er ikke markante.

Henger ikke på greip

For det tredje, de nasjonale forskerskolene har gitt mulighet til å utvikle samarbeid med internasjonale fagpersoner og lære av hvordan andre læresteder organiserer forskeropplæring. At samarbeid om forskeropplæring og mulighet til å tiltrekke seg internasjonale toppforskere som undervisningskrefter på ph.d.-kurs eller kunne tilby kurs i samarbeid med utenlandske institusjoner har ført til økt kvalitet i forskeropplæringen, er rimelig å forvente, men at denne effekten skal kunne måles i internasjonal sampublisering, henger ikke på greip. Internasjonalt forskningssamarbeid og samarbeid om forskerutdanning vil selvsagt berike hverandre. Men at ph.d.-kandidatene, som i utgangspunktet er under opplæring, skal måles på om de har internasjonal sampublisering, understreker at evalueringen har en mangelfull forståelse for hvordan forskeropplæring foregår.

Uheldige mål på kvalitet

Jeg har selv vært ansvarlig for eller gjennomført noen av de undersøkelsene som denne evalueringen også baserer seg på, blant annet var jeg ansvarlig for evalueringen av det norske systemet for forskeropplæring i 2012. Jeg vet godt hvor vanskelig det er å vurdere kvalitet i forskeropplæring, og har dermed forståelse for at man må ta pragmatiske valg. Men noen ganger er ikke slike valg like gode, for eksempel når de i liten grad evner å fange opp det som aktørene og ordningene selv har lagt vekt på av mål og kvalitetskrav, som først og fremst har vært å øke kvaliteten på forskeropplæringen generelt og kurstilbudet spesielt. Spørsmål som evalueringen av forskerskolene kunne ha tatt opp for å måle kvalitet i forskeropplæringen, er for eksempel hva slags erfaringer og kunnskaper ph.d.-kandidatene får? Hvordan vurderer de læringsutbyttet fra kursene de har tatt? Utvikler kandidatene faglige nettverk, nasjonale og internasjonale, som er relevante under og etter forskeropplæringen? Opplever kandidater som er ansatt i små og fragmenterte fagområder, at kvaliteten på forskeropplæringen har økt? For å måle kvaliteten på forskerskoler må man måle forskjellen i kvaliteten (opplevd og i form av resultater) på kandidater som har deltatt på og ikke deltatt på forskerskoler, og utfallsmålene må ses på over tid, ettersom resultatene fra forskeropplæring opplagt kun vil vise seg over tid.

Forhastet konklusjon

Forskerskolene har i både denne og tidligere evalueringer vist at de bidrar til kvalitet og samarbeid, spesielt nasjonalt, i forskeropplæringen. Dette er helt i tråd med deres opprinnelige mandat. Om forskerskolenes merverdi eller addisjonalitet, det vil si om de bidrar til økt kvalitet utover de vesentlige kvalitets- og effektivitetsforbedringer som universitetet og høgskoler selv står for, det er for meg det viktigste evalueringskriteriet, men som evalueringen ikke tar opp.

Når Forskningsrådet nå skal diskutere fremtiden til forskerskoleordningen, er det urimelig å trekke konklusjonen om at ordningen ikke har hatt effekt (jf. Hanneborg i Forskerforum nr. 8/2018). De har trolig hatt vesentlige effekter for å øke kvaliteten i forskeropplæringen både i fagmiljøene som har mottatt midler, men også smitteeffekten i systemet for øvrig må tas i betraktning. Om forskerskoleordningen skal fortsette, og hvilken form den eventuelt skal ha, bør diskuteres i lys av dagens system for forskeropplæring og en reell vurdering av effekt og merverdi basert på kvalitetsmål som er i tråd med ordningens intensjon.