Under vintern har textroboten ChatGPT blivit allt mer uppmärksammad. Ett textverktyg som kan skapa färdiga texter och svara på frågor utifrån användarens önskemål.
Var går gränsen för fusk?
Textroboten är effektiv men var gränsen går om det är fusk att använda roboten i sina studier beror på hur man gör det. Det tycker Felix Dobslaw, datavetare och forskare på MIUN, som också jobbar med att tillämpa AI i olika sammanhang.
– Det är ju fusk om man inte själv har gjort jobbet, men det blir en gråzon om man använder det i bakgrunden. Det man ska komma ihåg är att chatGPT inte hjälper med referenser och dessutom kan den ju komma med rena påhitt, säger Felix Dobslaw.
Hur lätt är det att bevisa fusk med AI?
Universitetet har inte märkt av någon trend av ökat fuskande än så länge men har börjat diskutera hur de ska förhålla sig till det textverktyget. Arne Wahlström, som är chefsjurist på MIUN säger att det finns detektorer som kan ge indikationer på att en AI-robot har skrivit en text men att det är svårt att bevisa.
– Därför verkar de flesta tro att det är examinationsformer som behöver anpassas snarare än att stänga av studenter på grund av fusk. Vi har inte sett någon tillströmning av sådana ärenden i disciplinnämnden, men misstankar har förekommit i några fall, säger Arne Wahlström, chefsjurist MIUN.