Just nu säkerhetstestas verktyget och är bara tillgängligt för ett antal kreatörer och personer som jobbar med så kallad ”red teaming”.
– Det vill säga personer som har till yrke att pröva de här tjänsterna och se hur de kan missbrukas på olika sätt. När OpenAI känner sig tillräckligt säkra på att tjänsten går att sprida i en större grupp, då kommer de antagligen göra det.
Se mer i klippet ovan.