Publicerad 27 november 2025
Internetanvändare i Australien har blockerats från att komma åt flera webbplatser som använde artificiell intelligens för att skapa material för sexuellt utnyttjande av barn, har landets internettillsynsmyndighet meddelat.
De tre ”nudify”-sajterna drog sig tillbaka från Australien efter en officiell varning, sa eSafety-kommissionären Julie Inman Grant på torsdagen.
Rekommenderade berättelser
lista med 4 artiklarslutet av listan
Grants kontor sa att sajterna hade fått ungefär 100 000 besök i månaden från australiensare och visades i högprofilerade fall av AI-genererade bilder av sexuella övergrepp mot barn som involverade australiensiska skolelever.
Grant sa att sådana ”nudify”-tjänster, som tillåter användare att få bilder av riktiga människor att se nakna med AI, har haft en ”förödande” effekt i australiensiska skolor.
”Vi vidtog verkställighetsåtgärder i september eftersom den här leverantören misslyckades med att sätta in skyddsåtgärder för att förhindra att dess tjänster användes för att skapa material för sexuellt utnyttjande av barn och till och med marknadsförde funktioner som att klä av ”vilken tjej som helst” och med alternativ för bildgenerering av ”skolflickor” och funktioner som ”sexläge”, säger Grand i ett uttalande.
Utvecklingen kommer efter att Grants kontor utfärdade en formell varning till det Storbritannien-baserade företaget bakom sajterna i september och hotade civilrättsliga påföljder på upp till 49,5 miljoner australiensiska dollar (32,2 miljoner USD) om det inte införde skyddsåtgärder för att förhindra bildbaserat missbruk.
Grant sa att Hugging Face, en värdplattform för AI-modeller, separat också hade vidtagit åtgärder för att följa australiensisk lag, inklusive att ändra dess användarvillkor för att kräva att kontoinnehavare vidtar åtgärder för att minimera riskerna för missbruk som involverar deras plattformar.
Australien har legat i framkant av de globala ansträngningarna för att förhindra onlineskada av barn, förbjuda sociala medier för under 16 år och slå ner appar som används för att förfölja och skapa deepfake-bilder.
Användningen av AI för att skapa sexuellt explicita bilder utan samtycke har blivit ett växande problem mitt i den snabba spridningen av plattformar som kan skapa fotorealistiskt material med ett musklick.
I en undersökning som genomfördes av den USA-baserade opinionsbildningsgruppen Thorn förra året, rapporterade 10 procent av de tillfrågade i åldern 13-20 att de kände någon som hade djupfalska nakenbilder skapade av dem, medan 6 procent sa att de hade varit ett direkt offer för sådana övergrepp.

