Sådan kan du bruge generativ AI på studiet
Generativ AI
Her på siden kan du i kort form blive klogere på hvad den ”nye” generative AI er for en størrelse.
Du kan få styr på at arbejde effektivt med chatbots, og hvad du skal være særligt opmærksom på når du bruger det i forbindelse med dine studier på EK.
Hvad er generativ AI?
Hovedpointer
- ChatGPT, CoPilot og Gemini kaldes alle store sprogmodeller (Large Language Models)
- De er "sandsynlighedsmaskiner" der giver det mest sandsynlige output baseret på deres træning
- Sprogmodeller er trænet på store datamængder
- Modellerne kan ikke tænke kritisk!
Når vi taler om AI flyver det omkring os med mystiske ord og forkortelser: Chatbot, LLM, ML, NLP, for blot at nævne nogle få som du måske er stødt på.
Der er skrevet utallige bøger og artikler om hvert enkelt emne, men vores fokus her er ikke så meget på den bagvedliggende teknologi, men snarere på brugssituationen i en studiesammenhæng. Det giver dog meget god mening kort at komme ind på de nævnte begreber, da de er helt grundlæggende for forståelsen af hvad det egentlig vil sige at arbejde med generativ AI.
LLM står for large language model, og kan sammenlignes lidt med de neurale netværk som vores hjerner består af. De indeholder millioner af ”hjerneceller”, som er trænet på store mængder data ved hjælp af machinelearning (ML). Sprogmodeller har eksisteret i mange år i forskellige former, men fik et stort teknologisk gennembrud i 2017, som danner grundlag for den generative AI bølge, der lige nu er over os. Vi har i årevis været udsat for chatbots fra virksomheder og offentlige instanser, der uden det store held har forsøgt at simulere menneskelig dialog for at spare medarbejderresurser. Med de simple tekstinterfaces, som f.eks. OpenAIs ChatGPT eller Googles Gemini tilbyder, er det nu endelig lykkedes at skabe noget der minder om en rigtig samtale med en computer. Det er muligt gennem natural language processing eller NLP, der kort fortalt gør computerprogrammer eller chatbots i stand til at forstå, og endda selv generere tekst og tale. Det er vigtigt at forstå, at de svar man modtager blot, er udtryk for statistisk sandsynlighed ud fra den data og træning sprogmodellen har fået.
Man kan i forsimplet form sige, at chatbots blot er sandsynlighedsmaskiner, der giver det mest sandsynlige output på et givent input. Der foregår med andre ord ingen kritisk tænkning, eller forståelse af den kontekst eller verden som vi andre bevæger os i – det er en vigtig pointe at have i baghovedet når man arbejder med generativ AI på studiet!
Husk din kritiske sans Bias, hallucinationer, persondata og ophavsret
Hovedpointer
- Store sprogmodeller er ikke neutrale, men har bias og værdisæt indlejret
- Eftertjek altid selv fakta - chatbots kan "opfinde sandheder"
- Vær varsom med hvad du uploader til en AI - og del aldrig persondata!
Når du bruger AI i studiesammenhæng, er der en række ting som det er vigtigt at være opmærksom på. Her kommer vi kort ind på fire af de vigtigste, nemlig bias, hallucinationer, persondata og ophavsret.
Bias og fordomme er altid en del af datagrundlaget
For det første er det åbenlyst, at den data som sprogmodellerne er trænet på, ikke er neutral, men indeholder alle de samme bias eller fordomme som ethvert andet materiale. Hvis man f.eks. trænede to udgaver af den samme sprogmodel på forskellige datasæt fra henholdsvis De Konservative og Enhedslisten er det klart, at man ville få forskellige svar hvis man efterfølgende promptede dem hver især om, hvad der ville være den optimale fordelingspolitik i Danmark. De forskellige aktører der laver chatbots prøver ihærdigt at udligne og fjerne bias, men ret beset er det en umulig opgave at skabe en helt neutral chatbot. Det er derfor meget vigtigt hele tiden at være kritisk, og vurdere om der måske er skjulte bias i form af fordomme, kulturelle forskelle eller manglende repræsentation af synspunkter.
AI er en energisluger
Træning af store sprogmodeller og prompting bruger enorme mængder energi!
Tænk over hvor meget du bruger teknologien.
AI chatbots er ikke sandhedsvidner
Et andet opmærksomhedspunkt er generativ AIs tendens til at generere misvisende eller decideret falske informationer – såkaldte hallucinationer. Her er der ikke tale om bias eller manglende repræsentation i datagrundlaget, men simpelthen det pure opspind. Husk på, at AI chatbots blot er sandsynlighedsmaskiner, der hele tiden genererer det mest sandsynlige næste ord i en sætning, baseret på træningsdata og prompt, uden NOGEN som helst form for refleksion, eftertjek/validering eller kritisk tænkning. Det kan virke meget overbevisende, da chatbots jo er skabt til at kreere formfuldendte tekster, men netop derfor er det ekstremt vigtigt ikke at lade sig overbevise af veltalenhed, men ALTID selv eftertjekke og verificere kilder og informationer.
Tænk over hvilken data du deler
Når det kommer til hvilke data du afgiver til en chatbot skal du altid være varsom. Afgiv i udgangspunktet aldrig persondata, da de kan blive lagret. Brug i stedet anonymiseret data, og vær særligt opmærksom på om der er ting der ikke bør deles med andre, hvis du copy/paster store mængder tekst ind, eller uploader dokumenter.
Upload ikke noget du ikke selv har skrevet
Endelig er der ophavsret som er et ret komplekst emne med mange gråzoner. Som på flere andre områder indenfor den digitale verden er det svært for lovgivningen at følge med, men som udgangspunkt er det en god tommelfingerregel ikke at uploade noget du ikke selv har skrevet.
Du må ikke uploade alt!
Det er ikke tilladt at uploade lærebøger, standarder, rapporter og artikler til en AI, da materialet er beskyttet af ophavsret.
Selvom det kan være fristende at bruge AI til at resumere og omskrive, er det altså i udgangspunktet ikke tilladt.
Du kan læse mere på rettighedsalliancen.dk
Prompting Sådan bruger du chatbots
Hovedpointer
- Du kan få bedre outputs, hvis du bruger prompting teknikker
- Prompt engineering er ikke en eksakt videnskab
- Forskellige prompting teknikker er egnede til forskellige formål
Nettet flyder over med guides til prompting og ”sådan bliver du prompt engineer” kurser. Ordet ”prompt” har taget verden med storm, og hvad der før var et nichebegreb reserveret til kodere og datanørder er nu overalt. Det kan diskuteres hvor meget mening al den fokus og hype omkring prompts giver, både fordi der findes så mange forskellige sprogmodeller der er trænet forskelligt og løbende får ændret deres funktionalitet, men også fordi der er en vis del overtro og magisk tænkning involveret, hvor anekdotiske succeser ophøjes til metodiske sandheder. Her vil vi forsøge at holde det til et par meget korte fifs til hvordan du kan komme i gang med at prompte chatbots mere effektivt, men hold in mente, at det skal tages med et gran salt, og er under evig forandring som teknologierne udvikler sig
Man kan måske tale om to grundskoler indenfor prompting, hvor den første arbejder med såkaldte ”megaprompts”, der prøver at få alt med i én stor prompt. Forhåbningen er så, at man har konstrueret sin prompt med alle de nødvendige oplysninger som chatbotten kræver for at give et fyldestgørende svar. I teorien er en af fordelene ved at bruge megaprompts et lavere CO2 aftryk, men i praksis er det dog ret tidskrævende (og næsten umuligt) at konstruere perfekte megaprompts, hvor man tager højde for alt, og man vil som oftest alligevel ende ud med at skulle uddybe og afgrænse gennem fortsat dialog. Som oftest er det mest frugtbart at bruge en mere dialogbaseret tilgang, hvor man gennem en samtale løbende formulerer nye spørgsmål og forståelser indtil man er kommet hele vejen rundt.
Der findes desuden en række mere eller mindre faste metoder man kan tage udgangspunkt i, når man konstruerer sine prompts. Igen er det vigtigt ikke at tage dem alt for bogstaveligt, men de kan være fine som rettesnor.
Et af de mest simple prompt frameworks det såkaldte R-T-F, hvor man giver chatbotten en rolle, en opgave og et format man vil have svaret i:
- Role (R), f.eks. ”du er ekspert i projektledelse”
- Task (T), f.eks. ”du skal lave en projektplan”
- Format (F), f.eks. ”Planen skal være lavet som en liste”
Chain-of-thought (CoT)
Det kan også være en god idé at bede chatbotten om at tænke sit svar igennem trin-for-trin, eller prompte den med en rækkefølge af handlinger, såkaldt ”chain-of-thought” prompting. Det fungerer særligt godt til opgaver der indebærer problemløsning og logik eller komplekse analyser, da den bliver mere opmærksom på rækkefølge og afhængigheder.
Prøv at prompt på engelsk
Overvej også at starte med at prompte på engelsk for derefter at oversætte det til dansk, da der i de fleste modeller er langt mere data på engelsk. Der findes som nævnt en del metoder, nogle mere avancerede end andre, prøv evt. selv at google dig frem til flere og se om du kan finde noget der passer til lige præcis din situation. Helt generelt kan man sige, at jo mere specifik du er omkring opgaven og jo mere kontekst du giver, des bedre svar får du.
Husk at teknologien er under evig forandring og prompt engineering er ikke nogen eksakt videnskab, så prøv dig frem, eksperimenter, vær kreativ og gør dig dine egne erfaringer.
Læs hvordan du kan henvise til brug af AI i opgaveskrivning under referencer
Prompts til brug på studiet
Du behøver ikke opfinde den dybe tallerken hver gang du skal skrive en prompt! Her finder du nogle inspirationseksempler, som du frit kan bruge og bearbejde.
Promptsene er lavet udfra R-T-F frameworket og chain-of-thought metoden. De er inddelt efter de emner, du finder her på studieviden, og kan bruges med din foretrukne AI studiekammerat/sprogmodel.