Rapporten, som släpptes förra veckan, pekar ut flera nätverk som ska ha använt AI-verktyg i form av stora så kallade språkmodeller.
En rysk grupp som kopplas till den ryska underrättelsetjänsten GRU har till exempel undersökt satellit- och radarteknik. Och en nordkoreansk grupp har använt språkmodeller för att söka efter sårbarheter i system.
Aktiviteterna har inte kunnat kopplas till specifika attacker men enligt rapporten går det att se vad hackergrupperna kan ta reda på, och hur verktygen används i brottslighet.
För de som utför olaga integritetsintrång mot någon kan domen bli böter eller upp till 2 års fängelse i Sverige.
Oro för AI i framtiden
Pontus Johnson, professor på KTH och föreståndare för Centrum för cyberförsvar och informationssäkerhet, oroas mer av framtiden än av dagsläget.
– I dag är de stora språkmodellerna begränsade, men det är mycket sannolikt att man kommer kunna använda AI för att lättare och snabbare hitta sårbarheter i framtiden.
Och det kan få stora konsekvenser om hackergrupper blir snabbare än försvararna på att hitta sårbarheter i programkod. Det skulle kunna innebära att de snabbt och plötsligt gör dataintrång i banksystem till exempel.
– Men det är ett tveeggat svärd, för om försvarare hittar sårbarheter innan man produktsätter så kan vi också bygga en mer robust infrastruktur, säger Pontus Johnson.