Forstå et OpenAI API request (Responses API)
Når du bruger OpenAI via et API, sender du ikke bare et spørgsmål. Du sender et request – et lille JSON-dokument – som beskriver:
- hvilken model du vil tale med
- hvad du vil sige
- hvordan modellen skal opføre sig
- hvor langt og kreativt svaret må være
Denne guide forklarer de vigtigste felter i Responses API – roligt, praktisk og uden teknisk støj.
Hvad er et OpenAI API prompt?
Et API-prompt er den instruktion, du sender til en sprogmodel.
I Responses API består det typisk af:
- input → hvad du siger
- model → hvilken AI du bruger
- parametre → regler for svaret
Du kan tænke på det som at udfylde en bestillingsseddel:
“Tal med denne assistent, svar sådan her, og stop dér.”
Det virker – men det giver dig meget lidt kontrol. Resten af denne guide handler om netop den kontrol.
system-instruktion
Hvad gør den?
Giver overordnede retningslinjer for modellen. Det er som at sige til en assistent:
- “Vær venlig og professionel”
- “Forklar ting grundigt for begyndere”
- “Brug eksempler i dine svar”
- “Hold dig til fakta, undgå spekulationer”
Typiske værdier
"You are a helpful assistant.""You are an expert tutor who explains concepts clearly to beginners.""You are a creative writer who tells engaging stories."
Hvad sker der, hvis du skifter?
- En venlig tone → mere imødekommende svar
- En ekspert tone → dybere forklaringer
- En kreativ tone → mere fantasifulde svar
model
Hvad gør den?
Bestemmer hvilken sprogmodel der svarer.
Det er som at vælge:
- junior vs. senior assistent
- hurtig vs. grundig
- billig vs. mere nuanceret
Typiske værdier
"gpt-4.1-mini"→ hurtig, billig, god til simple opgaver"gpt-4.1"→ mere præcis, bedre til komplekse forklaringer
Hvad sker der, hvis du skifter?
- Mindre model → hurtigere, men kan misse nuancer
- Større model → bedre forståelse, men dyrere
input
Hvad gør den?
Det er det, du siger til modellen.
I Responses API kan input være:
- en enkelt tekst
- en længere instruktion
- struktureret indhold (men start simpelt)
God tommelfingerregel
Skriv som til et menneske, der gerne vil hjælpe, men ikke kan læse tanker.
max_output_tokens
Hvad gør den?
Sætter en øvre grænse for længden af svaret.
Tokens ≈ orddele 100 tokens ≈ 70–80 ord
Typiske værdier
- 50–100 → korte svar
- 200–400 → forklaringer
- 800+ → længere tekster
Hvad sker der, hvis den er for lav?
- Svaret stopper midt i en sætning
temperature
Hvad gør den?
Styrer hvor kreativ modellen må være.
Tænk på det som:
- lav temperatur → forsigtig, faktuel
- høj temperatur → friere, mere legende
Typiske værdier
0.0–0.3→ præcist, stabilt0.5–0.7→ naturligt, varieret0.9+→ kreativt, uforudsigeligt
top_p
Hvad gør den?
Et alternativ til temperature.
I stedet for hvor vild, vælger du hvor bredt modellen må tænke.
Vigtigt for begyndere
👉 Brug enten temperature eller top_p Ikke begge.
Typiske værdier
0.9→ bred variation0.5→ mere fokuseret
frequency_penalty
Hvad gør den?
Reducerer gentagelser.
God hvis modellen:
- gentager samme ord
- genstarter sætninger
Typiske værdier
0.0→ ingen straf0.5→ færre gentagelser1.0+→ meget varieret sprog
presence_penalty
Hvad gør den?
Opmuntrer modellen til at introducere nye begreber.
Tænk:
- frequency → gentager ord
- presence → gentager idéer
Typiske værdier
0.0→ holder sig til det kendte0.6→ mere udforskende
stop
Hvad gør den?
Fortæller modellen hvornår den skal stoppe.
Nyttigt til:
- strukturerede svar
- én linje / ét punkt
Best practices for begyndere
- Start simpelt – kun
modeloginput - Tilføj én parameter ad gangen
- Brug lav
temperaturetil forklaringer - Sæt altid
max_output_tokens - Test direkte i små eksperimenter (som her)
- Tænk på prompten som kontekst, ikke kommando
🧪 Prøv Responses API selv
Der findes flere endpoints i OpenAI API. Den vi har brugt indtil nu completions. Her er en lille forsmag på responses med en interaktiv playground hvor du kan eksperimentere med alle parametre:
- Vælg mellem 3 forskellige system instruktioner (kreativ, faktuel, pædagogisk)
- Juster model, temperature, max tokens og top_p
- Prøv forskellige test-prompts
- Se hvordan parametre påvirker output
Tips til eksperimentering:
- Prøv samme prompt med forskellige system instruktioner
- Sammenlign
temperature: 0.2vstemperature: 1.2 - Test hvordan
max_output_tokenspåvirker svarets dybde - Skift mellem modeller for at se forskelle i kvalitet og hastighed
Responses API handler ikke om at “styre” AI hårdt. Det handler om at skabe tydelige rammer, så sproget kan arbejde for dig.
Jo klarere din intention er, jo bedre bliver svaret.