FOI har med hjälp av artificiell intelligens utvecklat en programvara som lär sig känna igen misstänkta botar, alltså datorstyrda konton.
– I vår studie ser vi att uppemot tio procent av kontona och åtta procent av innehållet i den svenska politiska diskussionen visar tecken på ett automatiserat beteende, säger Johan Fernquist, forskare på FOI.
Mäter 140 egenskaper
Med hjälp av hashtags och olika nyckelord följer FOI-teamets AI-dator den digitala debatten i detalj för att kartlägga automatiserade beteenden. Programvaran mäter inte mindre än 140 olika egenskaper för att kunna avgöra graden av automatisering.
Johan Fernquist är övertygad om att den automatiserade spridningen skulle kunna användas för att påverka samtalsklimatet.
– Om man vill försöka påverka människor kan man använda sig av många konton som retweetar material väldigt mycket. Då kan man få en förvrängd bild av att ämnen diskuteras betydligt mer än vad de faktiskt gör.
Kolla namn och retweets
Att bestämt slå fast att det rör sig om botar är emellertid svårt. FOI nöjer sig med att konstatera att automatiserat beteende förekommer i de politiska diskussionerna.
– Det vi kollar efter är beteende och det spelar ingen roll för oss om det är en person som har väldigt mycket fritid, anställda i en trollfabrik eller en mjukvara. Effekten blir densamma.
Har du några tips för hur kan man som privatperson kan notera den här typen av konton?
– Ja, man kan framförallt kolla om kontot enbart retweetar, det kan vara ett tecken. Likaså slumpgenererade användarnamn och om ett konto följer väldigt många men har få följare.
FOI har hittills inte sett några tecken på direkta påverkansoperationer riktade mot det svenska valet, och drar heller inga slutsatser om innehållet från de automatiserade kontona.
– Vårt mål med forskningen är att se till att Sverige har en bättre förmåga att upptäcka påverkansoperationer, och förstå vad det är för budskap som sprids av framför allt automatiserade konton, säger Lisa Kaati, projektledare på FOI.