I förra veckan spreds en nyhet om att en 22-årig kanadensisk skådespelare med namnet Saint Von Colucci hade avlidit efter att ha genomgått tolv skönhetsoperationer för motsvarande två miljoner kronor.
Han skulle ha gjort operationerna för att efterlikna Jimin i den koreanska popgruppen BTS, inför en medverkan i ett koreanskt tv-drama.
Men allt pekar på att nyheten är en bluff. Och det är troligtvis det första kända fallet där AI används för att lura medier till att sprida falska nyheter, skriver Al Jazeera.
Tecken på att en AI har skapat bilderna
Källan var ett pressmeddelande från en PR-byrå vars hemsida registrerades för bara några veckor sedan. När Al Jazeera ringde numret som var kopplat till byrån fick de först inget svar – men fick senare ett sms med texten ”vad fan vill du”.
Pressmeddelandet var skrivet på klumpig engelska, refererade till ett sjukhus i Seoul som inte finns, och innehöll länkar till skådespelarens Instagram-konto som inte gick att öppna.
Saint Von Colucci beskrivs som skådespelare samt låtskrivare för flera K-pop-stjärnor, men albumet han ska ligga bakom går inte att hitta på strömningstjänsterna.
Bilderna som finns på honom är suddiga och enligt Al Jazeera ser hans händer märkliga ut på åtminstone en bild. Det är ett vanligt tecken på att det är en AI som tagit fram bilden.
Och en AI-detektor som analyserat bilderna visar att det med 75 procents säkerhet är en AI-genererat, skriver Variety.
”Nyheten” fick fötter
Daily mail, som var först med att publicera, har sedan dess avpublicerat artikeln. Men innan dess hann ”nyheten” få fötter – bland annat plockade Aftonbladet upp det, men har även de avpublicerat.
– Självklart ska det vi publicerar vara korrekt och den här gången verkar vi ha hamnat snett. Det kan vi bara beklaga, säger Martin Schori, biträdande redaktionschef på Aftonbladet.