Robotsprog
22.10.2024
af
Freja Lillevang Sørensen
Foto: Gorodenkoff/Shutterstock
Sprogmodeller som ChatGPT kan bruges til at lave glimrende eksamensopgaver, og det er der god grund til at benytte sig af, siger professor. Men det kræver, at du anvender teknologien på en begavet måde – og at du overvejer mindst tre ting.
Forestil dig, at du har fået din onkel til at skrive noget af din universitetsopgave for dig. Han er jurist og har styr på alle aspekter af den familie- og arveretseksamen, du skal skrive, og han formulerer sig overbevisende.
Problemet er bare, at afsnittene, din onkel har skrevet, er på et helt andet akademisk niveau end dine egne. Og så giver han ingen kildehenvisninger.
Eller for at smøre helt tykt på: Du er endda kommet til at inkludere hans mailadresse og afsendelsestidspunkt for de svar, han har givet, i din opgave.
Det er de allerfærreste, der vil hoppe i ovenstående fælder. Men scenarierne kan ikke desto mindre sammenlignes med at bruge sprogmodeller som ChatGPT til dine skriftlige opgaver – hvis du ikke bruger den kunstige intelligens intelligent, vel at mærke.
Anders Søgaard er ph.d. i sprogteknologi og professor ved Datalogisk Institut på Københavns Universitet. Ifølge ham er der næsten ubegrænsede muligheder for at skrive rigtig gode opgaver ved hjælp af fx ChatGPT, hvis man stiller de rigtige spørgsmål og bruger det begavet. Som udgangspunkt er det nemlig svært at sige, om tekst er menneske- eller robotfremstillet.
”Det er svært at detektere chatbotgenereret sprog, dels fordi der er mange chatbots på markedet, dels fordi de enkelte chatbots ændrer sig hele tiden – det vil sige, at deres sprog også ændrer sig. Og endelig kan man for langt de fleste chatbots' vedkommende prompte dem på så mange måder, at det er svært at lave et repræsentativt datasæt for den enkelte chatbot, også på et givet tidspunkt,” slår Anders Søgaard fast.
Alligevel er ”robotsprogets” indtog i eksamensopgaverne et fænomen, der debatteres i universitetsverdenen.
Ledige stillinger
Det fremgår fx af en kronik i Berlingske skrevet af antropolog og tidligere lektor Gunnar Lind Haase Svendsen. Da han i sommer skulle rette 69 sociologiopgaver, fik Gunnar Lind Haase Svendsen nemlig den mistanke, at omkring en tredjedel af opgaverne var skrevet ved hjælp af ChatGPT.
Et stykke hen ad vejen virkede opgaverne overbevisende, både sprogligt og fagligt. Dog oplevede han sproget lidt ”upersonligt” – indtil det pludselig gik helt ned ad bakke. ”Sproget ligesom knækkede, og det faglige niveau faldt. Banale pointer blev gentaget og standardbegreber stavet forkert”, skriver han.
Helt grundlæggende mener Anders Søgaard dog, at det er ”en blindgyde” at forsøge at indkapsle AI-genereret sprog.
”Jeg tror, at det er op ad bakke at forsøge at argumentere for, at noget ikke er genereret af en chatbot, fordi det har en eller anden sproglig kvalitet. Jeg tror ikke, der er noget, vi mennesker har tillært os af litterær kunnen i løbet af de sidste mange tusind år, som ikke kan repliceres i en chatbot, der har adgang til næsten al tekst, vi har produceret.”
Derfor er spørgsmålet grundlæggende, hvordan du som studerende bruger teknologien, hvilke spørgsmål du stiller sprogmodellen, og hvordan du inkorporerer det i din opgave, fortæller han.
Ifølge Anders Søgaard betyder det dog ikke, at man ikke som underviser har en chance for at gennemskue, at studerende har brugt AI-sprogmodeller – eller at det kan være uden konsekvenser.
”Som underviser til studerende vil du have en idé om, hvad der er et forventeligt output fra dem. De har måske skrevet opgaver tidligere i kurset, men i hvert fald ved du noget om, hvor gamle de studerende er, hvor de kommer fra, og hvilket materiale de har været eksponeret for i løbet af kurset – og set i det lys kan der jo godt være svar, der er usandsynlige.”
Samtidig er det vigtigt, at man som studerende er bevidst om en række ting: For det første om det betragtes som snyd at besvare sin eksamen ved hjælp af AI. Det afhænger af retningslinjerne for det enkelte kursus på universitet. Og for det andet om man kan ryge i plagiattjek.
”Mange af de her modeller, fx ChatGPT, kan reproducere noget af det materiale, de er blevet trænet på. Og genererer du et svar ved hjælp af en chatbot, som inkluderer passager fra et andet værk, er det jo et brud på ophavsretten.”
"Det er op ad bakke at forsøge at argumentere for, at noget ikke er skrevet af en chatbot, fordi det har en eller anden sproglig kvalitet."
Anders Søgaard, sprogteknolog og professor
Og så er spørgsmålet i sidste ende, om man overhovedet bør bruge sprogmodellerne, selv om man kan?
I Anders Søgaards øjne er AI-modeller som ChatGPT et tveægget sværd, fordi de på den ene side kan frigive tid og ressourcer til at fokusere på de væsentlige dele af din opgave – og i et større perspektiv være med til at give mennesker mulighed for at tage uddannelser, de ikke nødvendigvis ellers kunne have taget. Eksempelvis kan mennesker med ordblindhed eller andet modersmål end dansk i dag i langt højere grad blive inkluderet i undervisningen ved hjælp af diverse oplæsnings- og oversættelsesværktøjer.
På den anden side kan det ifølge Anders Søgaard diskuteres, om man som studerende lærer det, man skal på et kursus, hvis man lader teknologien gøre dele af sit arbejde – arbejde, der kan være relevant for de læringsmål, der nu er for det givne kursus.
Desuden er der endnu et forhold, som han mener, at studerende bør have for øje: Nemlig det faktum, at AI-sprogmodeller bruger virkelig meget strøm. Det kræver fx 10 gange mere strøm at generere svar via ChatGPT på spørgsmål som ”hvornår blev Erving Goffman født?” eller ”hvad hedder regeringsforsamlingen i Canada?”, end det ville gøre via en søgemaskine som Google.
”Søgemaskinerne har derudover den fordel, at de giver dig en reference, noget at citere, hvilket ikke alle sprogmodeller gør. Så på mange måder kan det give god mening at tænke over, om det virkelig er nødvendigt at bruge en sprogmodel til at besvare sine spørgsmål. Det er ikke altid, man behøver at bruge den allertungeste hammer i værktøjskassen.”