Maskinlæring
13.9.2023
af
Jens Ulrik Hansen
Illustration: GogOfVector/Shutterstock
Vi hører om, hvordan AI kan revolutionere alt – bl.a. skabe automatiseret forskning. Men bliver mennesket virkelig overflødigt i forskningen?
Gør kunstig intelligens, eller AI, os mennesker overflødige, når det kommet til forskning og udvikling?
Flere opgaver er for længst overtaget af AI – det er spamfilteret i din e-mail-indbakke et eksempel på – og stadig flere vil blive overtaget af AI i fremtiden. AI viser eksempelvis potentiale inden for diagnosticering af visse kræfttyper ud fra scanningsbilleder.
Men forskning og udvikling synes jo at være noget af det, der kræver det ypperste af intelligens og opfindsomhed, så det kan vel ikke overtages af AI lige foreløbig... eller kan det? Udviklingen inden for AI de seneste år kan godt få én til at tvivle.
Efter min bedste overbevisning er svaret dog nej. Videnskab og udvikling bliver ikke fuldt automatiseret, og vi mennesker bliver ikke overflødige – i hvert fald ikke lige foreløbig.
Vores viden forbliver relevant og vil tjene som fundament for, at AI kommer til at være velfungerende en hel del år endnu.
Det bygger jeg på viden om, hvordan AI faktisk udvikles, og ikke kun dens succeshistorier, som typisk skaber overskrifter i medierne.
Ledige stillinger
Jens Ulrik Hansen er ph.d. og lektor ved Institut for Mennesker og Teknologi på Roskilde Universitet.
Artiklen bringes i samarbejde med Videnskab.dk, hvor den er blevet udgivet i ’Forskerne formidler’-sektionen.
Det er faktisk ikke nogen ny idé, at AI vil kunne automatisere forskningen og fjerne al den besværlige teori og metode.
Allerede i 2008 skrev Chris Anderson, som er redaktør for Wired, en leder, hvor han proklamerede, at vi ikke længere havde brug for teori og den videnskabelige metode. Hans tanke var, at vi bare kan hælde store datamængder ind i en smart AI-maskine, og så spytter den forskning ud uden yderligere menneskelig indblanding.
Andersons påstand om, at vi mere eller mindre kan automatisere forskningen, er lige optimistisk nok på AI’s vegne. Det ville de fleste videnskabsfilosoffer i hvert fald mene.
Men i visse kredse lever troen på, at vi kan udvikle AI til at løse et væld af videnskabelige og andre problemer næsten uden menneskelig involvering.
I forskningsverdenen har store datamængder og AI da også banet vejen for nye revolutionere forskningsresultater.
Et eksempel er programmet AlphaFold, der har ’forudsagt’ strukturen på næsten alle de proteiner, vi kender til, og i 2021 blev kåret til årets videnskabelige gennembrud.
Der er ingen tvivl om, at AlphaFold er en kæmpe bedrift inden for anvendelsen af AI og vil spare mange forskere inden for biologi og kemi en masse tid fremover. Men hvilken rolle spillede ekspertviden om proteiner egentlig i udviklingen af AlphaFold?
Selvom jeg ikke har en baggrund i biokemi, har jeg alligevel forsøgt at læse forskningsartiklen af folkene bag AlphaFold.
Jeg vil spare jer for alle detaljerne, men man får en tydelig fornemmelse af, hvordan mange års ekspertviden om proteiner var et væsentligt grundlag.
I tilfældet med udviklingen af AlphaFold blev den kunstige intelligens ’trænet’ på store datamængder fra historiske biologiske databaser, der er udviklet af et utal af forskere gennem mere end 50 år.
Data blev ikke bare hældt hovedløst ind i en maskine, som Anderson beskriver det, men blev brugt på en smart måde, der krævede indsigt i proteiner og biologiens verden.
Et væsentligt element i udviklingen af datatunge AI-algoritmer er at definere, hvornår algoritmen gør det godt. I denne sammenhæng blev der også flittigt brugt viden om biologi, kemi og fysik af folkene bag AlphaFold.
Udviklingen af AlphaFold var drævet af et stort team af forskere fra forskellige forskningsfelter, der stod på skuldrene af tidligere forskning og massive datamængder nøjsomt indsamlet fra utallige andre forskere.
Måske køber du min påstand om, at udvikling af AI i forskningen kræver væsentlig menneskelig indblanding. Men måske du samtidig sidder og tænker: 'Hvad så med ChatGPT?'
Som mange andre blev jeg også fascineret af ChatGPT, og jeg begyndte faktisk at tvivle lidt på min påstand.
Men efter utallige timers samtaler med ChatGPT og grundigere læsning af dokumentationen bag blev jeg faktisk kun yderligere forsikret i min påstand.
Først og fremmest er ChatGPT også, som AlphaFold, trænet på store (rigtigt store!) mængder af data – menneskeskabt tekstdata.
Derudover bruger holdet bag ChatGPT også noget, de kalder ’Reinforcement Learning from Human Feedback’, hvilket dækker over en anden AI, som er trænet på feedback fra mennesker.
Disse mennesker er blevet bedt om at komme med feedback på forskellige svar fra ChatGPT i form af en rangering af, hvor brugbare svarene var.
Den data er så blevet brugt til at træne den anden AI, der så er blevet brugt til at give feedback til ChatGPT i en ny træningsrunde af sprogmodellen.
ChatGPT står dermed ligesom AlphaFold på skuldrene af menneskeskabt viden, feedback og innovation.
For AlphaFold så vi, at den er trænet på historisk data skabt af forskere, mens ChatGPT bl.a. er trænet på menneskeskabt feedbackdata, der er genereret til formålet.
Faktisk er en hel del af den AI, vi ser i dag, trænet på data skabt af mennesker netop med henblik på at træne AI’en.
Man snakker nogle gange om en ny underklasse af menneskelige arbejdere, der ofte er ufaglærte og delvist underbetalte.
På onlineplatforme som ’Amazon Mechanical Turk’ sidder mange tusinde mennesker på akkord og sætter etiketter på data. Det kan eksempelvis være, om en tekst indeholder stødende sprog eller ej eller beskrive indholdet af en video.
Den AI, vi ser i dag, er altså ikke opstået ud af ingenting som en anden fugl Føniks, men er resultatet af omfattende forsknings- og udviklingsprojekter. Projekter, der har involveret menneskelige kompetencer på mange forskellige niveauer.
Det er ikke så meget algoritmerne, der er intelligente, som det er de mennesker, der har udviklet dem eller finder nye smarte måder at bruge dem på.
Det leder mig til at tro, at forskning- og udviklingsfronten vil involvere smarte hoveder som dit, kære læser, mange år ud i fremtiden.
Fremtiden er dog altid uvis, og selvom jeg føler mig sikker på, at min konklusion holder inden for den nærmeste fremtid, ved jeg også godt, at på den længere bane er vi alle spåkoner.
Der er da også reel forskning, der kunne være med til at bringe os tættere på automatiseret forskning. Om den vil være succesfuld, må tiden vise.
DJØF ARRANGEMENTER OG KURSER