En person, professor Richard Johansson på Chalmer, skriver på en vit tavla med svart tuschpenna, där orden  ”ChatGPT”, ”Llima” och ”Claude” står skrivet syns. Personens klädsel är en blå och vit rutig skjorta.

Javascript är avstängt

Javascript måste vara påslaget för att kunna spela video
Ett Jas-plan över Bruce Springsteen på Ullevi. Tunnelbanestationer i Göteborg. Se hur AI kan killgissa och hallucinera, och hör en professor i språkteknologi förklara fenomenet. Foto: Kristian Åkergren/SVT

Därför killgissar AI-verktyg när de inte vet svar – forskning vid Chalmers ska ge svar

Uppdaterad
Publicerad

AI-baserade språkmodeller som ChatGPT har blivit populära verktyg för informationssökning – men deras trovärdighet ifrågasätts.

Men varför blandar systemen ibland ihop fakta och till och med hittar på svar? Det undersöker nu Chalmers-professorn Richard Johansson och hans team.

Fem exempel: Här ljuger AI när den inte vet svaret

Han har hållit på med det här i decennier – forskat om språkteknologi sedan tidigt 2000-tal. Richard Johansson, som är professor i data- och informationsteknik vid Göteborgs universitet och Chalmers, har sett fältet utvecklas.

Det är först på senare år som ChatGPT och liknande verktyg sett dagens ljus och introducerats för allmänheten. Richard Johansson ser hur språkmodellerna skapat en känsla av trovärdighet.

– I stora drag verkar det vettigt. Men tittar man närmare på vissa texter som de skapar så är det inte alltid så vettigt. Vi brukar säga att systemen har problem med hallucinering, alltså att de ”killgissar” svar, säger han.

Kan man lita på ChatGPT?

Tillsammans med en grupp doktorander undersöker Johansson varför stora generativa språkmodeller som ChatGPT, Llama och Claude ibland gör faktamissar. Modellerna baserar sina svar på sannolikhet och hittar ofta på svar när de är osäkra.

– Systemen papegojar det som står på internet. Ibland kan en papegoja låta rätt bra, men det är inte så att den vet vad den faktiskt pratar om.

Söker kvalitetsstämpel

Forskarteamet på Chalmers undersöker nu hur systemen väljer svar och vad som avgör om de kan besvara en fråga.

– Ur ett nyttoperspektiv kan man kanske göra systemen mer pålitliga. Man kanske kan få någon sorts kvalitets- eller pålitlighetsstämpel på det som de skriver ihop, svarar Richard Johansson.

Under de senaste månaderna har SVT ställt frågor till AI-verktyg som Azure och ChatGPT, som tidigare hittade på felaktiga historier. Några månader senare ger verktygen överlag mer korrekta svar och dementerar falska påståenden, vilket visar att de lär sig över tid.

OpenAI:s svar: ”Vi påminner användare”

Professor Richard Johansson säger sig ha noterat samma sak i olika omgångar.

– Min gissning är att OpenAI helt enkelt har observerat att den tidigare versionen genererade för mycket ogrundat material, och att de därför tränade om systemet, eller justerade systemet, för att bli mer försiktigt och konservativt, säger han.

Företaget OpenAI som ligger bakom tekniken i både ChatGPT och Azure skriver i ett mejl: ”ChatGPT kommer ibland att hitta på fakta och vi påminner användare om att de bör verifiera informationen som tillhandahålls. Vi fortsätter att göra förbättringar för att minska hallucinationer när vi uppdaterar modellerna.”

Så gjorde SVT AI-inslagen

• Vi skrev olika påhittade påståenden till AI-språkmodellerna ChatGPT och Azure. Till exempel: ”Berätta om stridsflygplanet som störtade på Ullevi!”

• Den händelsen har aldrig ägt rum. I stället för att svara det så hittade AI-verktyget på ett händelseförlopp. När vi frågade igen nästa dag hittade den på ett nytt händelseförlopp. Detta kallas att den ”hallucinerar”. Men nu några månader senare har AI-modellen utvecklats så pass mycket att den konstaterar att det inte finns någon sådan händelse. Men det betyder inte att AI-verktygen helt har slutat hallucinera, bara att de gör det i mindre omfattning.

• Vi använde sedan AI-tjänsten Runway för att låta den generera korta videosnuttar av händelsen som redaktionen använde för att illustrera de hallucinerade händelserna i videosnurran ovan. Vi använde AI-verktyget Elevenlabs för att göra en artificiell röst som läste upp texten som AI-språkmodellen gav oss.

Så arbetar vi

SVT:s nyheter ska stå för saklighet och opartiskhet. Det vi publicerar ska vara sant och relevant. Vid akuta nyhetslägen kan det vara svårt att få alla fakta bekräftade, då ska vi berätta vad vi vet – och inte vet. Läs mer om hur vi arbetar.