Nyheter | Kunstig intelligens

Publisert 13. november 2025 kl. 12:46
Midt i oktober publiserte nyheitsbyrået NTB ei sak om Telenors årlege tryggleiksrapport som var offentleggjort, fersk frå den digitale trykkepressa, same morgon. Problemet var berre at NTB-meldinga presenterte rapporten på ein heilt feil måte: Sitat var oppdikta, bodskapen om risikofaktorar var fordreia, og forordet i rapporten var tileigna ein fiktiv opphavsmann i staden for den reelle opphavskvinna, Telenors administrerande direktør Birgitte Engebretsen. NTB trekte saka, men ikkje før ho var gjengitt av fleire avisredaksjonar.
Det viste seg raskt at NTBs samandrag av Telenor-rapporten var laga ved hjelp av kunstig intelligens. For professor i digital kultur, Jill Walker Rettberg, var dette dropen som fekk begeret til å renne over. Ho sette seg ned og skreiv eit innlegg til Aftenposten der bodskapen var at KI og kunnskapsarbeid ikkje høyrer saman.
Jill Walker Rettberg, professor og nestleiar ved Senter for digitale forteljingar ved Universitetet i Bergen
Aktuell med: Tok i eit mykje lest innlegg i Aftenposten til orde for at vi må slutte å bruke språkmodellar i kunnskapsarbeid
– Eg har tenkt på å skrive noko om dette ei lang stund. Det er ei meining som har utvikla seg over tid. Då ChatGPT vart lansert, reagerte eg som mange andre med å tenkje at dette var spennende og opna ei mengd moglegheiter. Eg tenkte at det ville bli interessant å utforske samspelet mellom menneske og modell. Men eg hadde ikkje sett for meg at det skulle bli prakka så sterkt på oss som det er blitt. Vanlegvis har vi måtta kjempe for å ta i bruk tekniske nyvinningar. Til dømes hadde eg i si tid utruleg vanskeleg for å få gjennomslag for å skrive hovudoppgåve om digital litteratur, som eg hadde lyst til. Men språkmodellane blir pressa inn over alt.
– Eg forskar på KI-genererte forteljingar, og dess meir eg forskar på det, dess meir skremt blir eg. Risikoen er enormt stor. Det er alt for farleg å bruke det i yrke der kunnskap er viktig, og det gjeld veldig mange yrke: Journalistikk, utdanning, forsking, prosjektarbeid og mykje anna. Eg har lenge hatt lyst til å seie at vi må berre slutte. Det er ikkje verd risikoen. Eg innser jo at eit forbod er urealistisk. Men det er så mange som berre ropar at vi treng meir KI overalt at vi treng tydelege stemmer som seier VENT!
– Vi er blitt vande med å høyre at språkmodellar hallusinerer og kan gjere feil, men NTB-samandraget hadde ikkje berre nokre feil, det var snakk om systematiske fordreiingar av innhaldet i rapporten. Vi har sett det same når vi forskar på KI-genererte forteljingar, til dømes at sensitive tema forsvinn. I NTB-saka nemner ikkje språkmodellen det som står i rapporten om krig og geopolitikk. I staden blir det framstilt som at dei viktigaste risikofaktorane er ekstremvêr og aldrande teknologi. Det med aldrande teknologi står ikkje i rapporten, men det er noko amerikanarar snakkar mykje om, for det er jo eit stort problem i USA.
– Vi har sett det lenge med KI-bias når det gjeld kjønn og hudfarge. (Det er godt kjend at generative KI-modellar har innebygde fordommar og difor genererer svar som forsterkar stereotypiar, journ.mrkn.) Det kan ein meine mykje om. Men når det også gjeld krig og politikk, er det openbert problematisk. Eg trur ikkje nokon kan argumentere for at det er trygt å bruke KI-modellar som underslår at framande statsmakter kan utgjere ein tryggleiksrisiko.
– Eg meiner ikkje at vi bør forby all KI, men utgangspunktet bør vere at det ikkje skal brukast i kunnskapsarbeid. Sjølvsagt vil det vere unnatak. Men i dag er standarden at alle skal bruke det. Eg opplever at det er ein veldig hype og berre i liten grad ein fagleg diskusjon om bruken. Det blir berre innført. Og det er problematisk.
– Vi må jo uansett sjekke at KI-en utfører rutineoppgåvene korrekt. For ein som meg, vil det vere ein større jobb å ettergå arbeidet KI gjer, enn å gjere det sjølv. Og språkmodellane skriv dessutan så polert at det er veldig vanskeleg å lese produktet kritisk, det krev mykje arbeid. Det vi gjer for lite av, er å gå inn og analysere akkurat korleis modellane gjer feil. Eg håpar nokon brukar den NTB-saka som eksamensoppgåve, at studentar får i oppgåve å samanlikne samandraget med den opphavlege rapporten. Den typen kritisk lesing er svært arbeidskrevjande.
– Åh – kven veit om vi ikkje allereie har fått det, men at det berre ikkje er blitt oppdaga? Altså, det kjem jo garantert til å skje. Det dukkar opp fleire og fleire slike saker. Før NTB-saka hadde vi avsløringa av at tala Riksrevisjonen la fram over kor mange årsverk som kunne sparast ved bruk av KI, sjølve var KI-genererte. Og så hadde vi saka der Tromsø kommune hadde brukt KI til å skrive ein rapport om skulesamanslåingar som var full av feil. I Australia må Deloitte betale tilbake ein halv million dollar dei hadde fått frå staten for å lage ein rapport, etter at det kom fram at rapporten var laga med KI og var full av feil.
Eg trur ikkje nokon kan argumentere for at det er trygt å bruke KI-modellar som underslår at framande statsmakter kan utgjere ein tryggleiksrisiko.
– Eg tenkjer at dersom det ligg ei systematisk fordreiing i måten språkmodellane gjer feil på, så er det viktig å vere merksam på. Det krev mykje å gå inn og vurdere det, det trengst ein ny type digital kompetanse, ein spesiell kritisk-analytisk lesekompetanse. Desse modellane produserer tekst, men dei er laga av folk som ikkje kan tekstanalyse.
– Nokre problem som er vanskelege for menneske fordi det er så store datamengder involvert, er veldig lette for KI – som proteinfolding. Bruk for all del KI til den typen arbeid. Men veldig mange oppgåver vi har i kunnskapssektoren, er ikkje av den typen. Dei handlar om menneske, om meiningar, om debattar, om å tenkje ut betre løysingar. Dette er ikkje KI god til.
– Eg er blitt stadig meir oppteken av å ta vare på mi eiga menneskelege stemme. I dag sende eg inn ein kommentarartikkel til eit tidsskrift, og då fekk eg straks eit automatisk svar om at eg kunne leggje ut artikkelen på preprintserveren til forlaget. Det gjorde eg, og det første som skjedde, var at eg fekk ei melding om at språket mitt var veldig dårleg, det fekk ein skår på 3 av 10. Men eg kunne få hjelp av ein språkmodell til å polere det, for ein pris av berre 150 dollar!
– Før brukte eg KI mykje til å foreslå titlar og slikt. Sist eg gjorde det, vart eg veldig imponert, for språkmodellen hadde kome opp med nokre omgrep som eg tykte var veldig kule og dekkande for det eg prøvde å seie. Eg kjende meg nesten litt dum. Men eg hadde jo ikkje brukt desse omgrepa sjølv, og då eg prøvde å inkorporere dei i teksten, fekk eg det ikkje til, dei passa ikkje. Slikt tenkjer eg er farleg, særleg for yngre forskarar. Ein skal ha høg sjølvtillit for ikkje å kjenne seg dum i møte med ein språkmodell som fortel deg at språket ditt er dårleg. Samtidig, då vi nyleg lyste ut ei phd-stilling, fekk vi inn ei mengd søknader som var openbert KI-genererte. Når eg då kom til ein søknad som hadde ei menneskeleg stemme, vart eg så glad. Eg trur det menneskelege blir meir verdifullt.
Kanskje brukar vi skriving så mykje i utdanning fordi det har vore lettvint? Og dersom skriving ikkje lenger er ein tenkereiskap, må vi kanskje finne på noko anna.
– Språkmodellane genererer eit produkt. Men eigentleg er det jo prosessen som ofte er det viktige. Dersom vi tenkjer at publikasjonar er det einaste poenget med forskinga, så fører det oss på villspor. Mitt instinkt er at vi må snakke meir med folk. For poenget med å gå på universitetet, er jo ikkje eigentleg å produsere tekst. Det er å lære seg visse kompetansar. Lære eit visst faktagrunnlag, lære å formulere problemstillingar, lese kritisk, analysere, sjå kva som fungerer og ikkje. Kanskje brukar vi skriving så mykje i utdanning fordi det har vore lettvint? Og dersom skriving ikkje lenger er ein tenkereiskap, må vi kanskje finne på noko anna.