Sikkerhed

Kan AI lyve? Hvad er AI-hallucinationer?

Martin Rieck Opdateret maj 2026 4 min læsning
Del

Kort svar: AI lyver ikke med vilje — men det kan sige noget der lyder rigtigt, men er forkert. Det kaldes en 'hallucination'. Det sker især med tal, datoer, navne og citater. Her er hvad du skal vide — og hvornår du skal dobbelttjekke.

Indholdsfortegnelse
  1. 1. AI lyver ikke — det gætter
  2. 2. Hvad er en AI-hallucination?
  3. 3. Hvornår hallucinerer AI mest?
  4. 4. Sådan opdager du fejl — 3 nemme metoder

AI lyver ikke — det gætter

ChatGPT, Claude og andre AI-systemer er ikke designet til at tale sandt eller falskt. De er designet til at forudsige den mest sandsynlige næste sætning baseret på al den tekst de er trænet på. Det betyder at AI sommetider producerer tekst der lyder troværdig — men faktisk er forkert. Ikke fordi AI 'vil' narre dig. Men fordi det gætter.

Hvad er en AI-hallucination?

  • Faktuelt forkerte svar der lyder troværdige
  • Opfundne tal, citater og referencer der ikke eksisterer
  • Blanding af fakta fra to forskellige emner
  • Eksempel: 'Undersøgelse fra 2023 viser at 73% af...' [undersøgelsen eksisterer ikke]

Hvornår hallucinerer AI mest?

Sådan opdager du fejl — 3 nemme metoder

  1. Spørg om kilderne: Skriv 'Kan du give mig de konkrete kilder til det du lige sagde?' Hvis AI ikke kan, er det et rødt flag.
  2. Dobbelttjek vigtige fakta: Brug Google eller Perplexity til at verificere specifikke tal, navne og citater.
  3. Giv AI dine egne data: I stedet for at bede AI 'finde fakta', giv den selv dokumentet. Så hallucinerer den meget sjældnere.

Ofte stillede spørgsmål

  • Nej. AI har ingen intentioner. Det genererer statistisk sandsynlig tekst — det ved ikke hvad der er sandt og falskt på samme måde som vi gør.

  • En hallucination er typisk et opfundet, specifikt 'faktum' der lyder troværdigt — som et citat, en statistik eller en kildehenvisning — men som simpelthen ikke eksisterer.

  • Ikke altid. AI udtrykker sjældent usikkerhed spontant. Du kan spørge: 'Hvor sikker er du på dette?' — men svaret er ikke altid pålideligt.

  • Alle store AI-modeller hallucinerer. Perplexity er generelt mest pålidelig til faktuelle spørgsmål fordi det henter aktuelle webresultater og viser sine kilder.

Portræt af Martin Rieck

Skrevet af

Martin Rieck

System Manager og AI-entusiast — tester tools og forklarer dem til danskere, der ikke er nørder.

Læs mere →

📅 Sidst opdateret: maj 2026

Var denne artikel nyttig?

Næste skridt

Hvad folk læser efter denne artikel.