Det er helt okay at benytte kunstig intelligens til at skrive videnskabelige artikler

Fremtidens teknologi 7. jan 2025 4 min Postdoctoral Fellow Sebastian Porsdam Mann Skrevet af Kristian Sjøgren

Etikere har opstillet tre kriterier for at benytte kunstig intelligens i skriveprocessen omkring videnskabelige artikler. Vi har allerede eksisterende standarder, som er relevante for området, og disse standarder skal tilpasses brugen af de store sprogmodeller for kunstig intelligens, siger forsker.

Kunstig intelligens og store sprogmodeller vælter frem.

Det sker i vores dagligdag, og det sker også inden for forskning.

Inden for netop forskning kan de store sprogmodeller som ChatGPT være interessante at benytte i forbindelse med for eksempel det at skrive videnskabelige artikler.

Store sprogmodeller kan gøre hele skriveprocessen hurtigere og dermed frigøre tid til faktisk forskning.

Det er dog klart, at der eksisterer nogle etiske udfordringer vedrørende brugen af kunstig intelligens og ChatGPT inden for forskningsformidling. Forskere har derfor foreslået tre kriterier for etisk brug af store sprogmodeller i forbindelse med skriveprocessen omkring forskningsartikler.

”De store sprogmodeller findes, og folk bruger dem, for de indeholder en masse potentiale. Men det er også vigtigt, at vi får opstillet nogle retningslinjer for brugen af dem, så vi ikke får dem brugt til en masse forkert, og så folk mister tilliden til den videnskabelige litteratur. Derfor kommer vi her med nogle retningslinjer for brugen af store sprogmodeller inden for forskningsformidling,” fortæller en af forskerne bag en ny artikel om emnet, postdoc Sebastian Porsdam Mann fra Centeret for Avancerede Studier i Biovidenskabelig Innovationsret ved Københavns Universitet.

De tre kriterier for etisk brug af sprogmodeller i forskningsformidling er publiceret i Nature Machine Intelligence.

ChatGPT benyttes allerede i dag

De store sprogmodeller benyttes allerede i dag i udfærdigelsen af den videnskabelige litteratur.

Undersøgelser af omfanget har som eksempel peget på, at fem til 20 pct. af videnskabelige artikler indeholder en eller anden form for tekst, der er skrevet af en sprogmodel.

Det vil sige, at sprogmodellerne allerede er i brug til trods for at der ikke er konsensus inden for eller mellem videnskabelige discipliner vedrørende brugen af dem.

Ydermere kan det være svært overhovedet at eftervise, at der er brugt kunstig intelligens til at skrive nogle af passagerne i en videnskabelig artikel.

”Vi er derfor nødt til at få opstillet nogle retningslinjer og krav for etisk brug af sprogmodeller inden for forskningsformidling. Disse retningslinjer skal være af en karakter, så vi kan bruge sprogmodellerne på måder som maksimere fordelene for forskning og formidling men uden at reglerne samtidig er så striks at de gør gavnlig brug besværlig,” forklarer Sebastian Porsdam Mann.

Hvis man som eksempel forestiller sig, at forskere i bilag til videnskabelige artikler skal dokumentere alle de prompts, som de har brugt for at få en sprogmodel til at skrive nogle passager i teksten, og hvordan de selv har ændret i passagerne, bliver det hele meget hurtigt meget omfangsrigt og besværligt.

”Hvis det er kravene, ender vi bare med, at forskere benytter sprogmodellerne uden at fortælle det, og det vinder ingen ved,” siger Sebastian Porsdam Mann.

Vigtigt at kunne stå inde for sprogmodellens ”arbejde”

Sebastian Porsdam Mann kommer med sine kollegaer med forslag til tre kriterier for etiske brug af sprogmodeller i forskningsformidling.

Det er kriterier, som ifølge dem selv vil gøre det etisk forsvarligt at bruge sprogmodellerne, men han understreger, at det er forskernes egne subjektive forslag og ikke noget, der endnu er konsensus omkring eller at de er baseret på institutionelle autoritet.

Kriterierne er desuden ikke nyopfindelser af dybe tallerkner, men udspringer fra tanker, der allerede er veletablerede inden for etikken.

Det første princip er, at man som forfatter til en videnskabelig artikel skal kunne stå inde for alt det og alle fakta, som en sprogmodel skriver.

På det punkt adskiller princippet sig ikke fra det, som en seniorforsker skal stå inde for, når det kommer til det, som en ph.d.-studerende eller assistent har lavet i laboratoriet.

”Benytter man ChatGPT i skriveprocessen omkring en videnskabelig artikel, skal man betragte sprogmodellen som man ville en juniorforfatter og være sikker på, at man kan stå inde for alt det, som den bidrager med,” forklarer Sebastian Porsdam Mann.

Man skal som forsker selv bidrage med noget substantielt

Det andet kriterie er, at man som forfatter til en videnskabelig artikel skal bidrage substantielt til det, som en sprogmodel hjælper med.

Det kan være, at man bidrager med tekst, ideer, data eller noget andet, men det skal i hvert fald være substantielt.

Det er klart, at inden for forskning med eksperimenter vil forskere som udfører eksperimenterne eller analyserer data kommer næsten altid med et substantielt bidrag, men man forskere inden for mere humanistiske felter som filosofi eller litteraturkritik, som generelt ikke er afhængig af data, kunne muligvis få en sprogmodel til at skrive en hel videnskabelig artikel uden selv at have bidraget med særligt meget.

”Det er en standard, som allerede eksisterer i dag, og som er formuleret af International Committee of Medical Journal Editors, og det skal der ikke ændres på, fordi det fungerer godt. Men det kan være, at man er god til at programmere en sprogmodel eller skrive gode prompts, og man på den måde bidrager substantielt. Det kan også være et bidrag, men det gælder, at der skal være et substantielt bidrag på en ny måde. Vi behøver dog heller ikke at kræve, at bidraget bliver højere – mere substantielt – fordi en sprogmodel bliver benyttet. Det er der ingen grund til,” siger Sebastian Porsdam Mann.

Transparens er nøgleordet

Det sidste princip handler om anerkendelse og gennemsigthed.

I store træk handler dette princip om, at andre forskere skal kunne se og forstå, hvordan man er kommet frem til sine resultater, og kunne genskabe dem selv. Dette følger fra eksisterende principper og politikker forbundet med åben videnskab.

Derfor skal man ved brug af sprogmodeller altid anerkende brugen af dem. De skal også sige hvilke modeller de har brugt og hvordan hvis denne oplysning er nødvendigt for at genskabe, evaluere eller forstå argumenterne fremsat i et manuskript..

Nogle vil måske sige, at der kan være helt fundamentale problemer i, hvis en idé eller konklusion i en videnskabelig artikel kommer fra en sprogmodel, men sådan ser Sebastian Porsdam Mann det ikke.

”Som jeg ser det, er det ikke relevant, hvor en idé kommer fra, bare den holder vand. Er en idé baseret på argumenter, i modsætning til data, skal der ikke være flere krav til ideen, end at man anerkender, at en sprogmodel er blevet brugt,” siger han.

Der vil dog være scenarier, hvor det kan være problematisk med brugen af sprogmodeller, for eksempel hvis man forestiller sig, at man skal lave et psykologisk eksperiment og benytter ”personer” skabt af sprogmodeller eller lader en sprogmodel komme med et estimat over ”populationen af bjørne i Norge”.

”Det er i alle henseender vigtigt, at man fortæller, hvor data stammer fra. Vi siger, at man altid skal anerkende, hvor man har brugt sprogmodeller og til hvad, men vi slår samtidig fast, at der ingen grund er til at kræve mere end det. Hvis vi kræver mere, kræver det mere af de forskere, som bruger sprogmodeller, men hvis vi kræver mindre, underminerer vi også tilliden til den forskning, hvor sprogmodeller er brugt,” siger Sebastian Porsdam Mann.

Sebastian Porsdam Mann is a postdoctoral researcher at the University of Copenhagen's Center for Advanced Studies in Bioscience Innovation Law. With a...

Udforsk emner

Spændende emner

Dansk
© All rights reserved, Sciencenews 2020