Norsk politi tar et markant steg i kampen mot nettovergrep mot barn. KI-verktøyet som fikk internasjonal oppmerksomhet etter å ha bidratt til å identifisere nærmere 200 ofre i den såkalte Omegle-saken, er nå under nasjonal utrulling og skal tas i bruk av samtlige politidistrikter i landet, ifølge Digi.no.

Gjennombruddet i Omegle-saken

Omegle-saken, som involverte seksuelt misbruk av barn formidlet via den nå nedlagte chattjenesten Omegle, ble et internasjonalt referansepunkt for hvordan avansert teknologi kan brukes i etterforskning av denne typen kriminalitet. Det norske verktøyet spilte en sentral rolle i å analysere store mengder digitalt materiale og koble det til konkrete ofre — noe som ellers ville krevd enormt manuelt etterforskningsarbeid.

At nesten 200 ofre ble identifisert i én enkelt etterforskning, illustrerer potensialet teknologien bærer med seg.

KI-verktøyet som identifiserte nesten 200 ofre i Omegle-saken, rulles nå ut i samtlige politidistrikter i Norge.
Norsk KI-verktøy avslørte 200 ofre — nå rulles det ut over hele landet

Sverige ser til Norge

Ifølge Digi.no savner svensk politi tilsvarende verktøy. Dette plasserer Norge i en uvanlig posisjon som teknologisk foregangsland innen politiarbeid på dette feltet — og understreker at det norske utviklingsmiljøet rundt Griffeye og tilknyttede verktøy har levert noe som monner i praksis, ikke bare i teorien.

Det er imidlertid grunn til å understreke at detaljer om nøyaktig hvilke algoritmer og datasett som ligger til grunn for verktøyet, ikke er offentlig tilgjengelig. Prestasjonskrav og treffsikkerhet bør derfor vurderes ut fra dokumenterte resultater fra faktiske etterforskninger, snarere enn produsentenes egne markedsføringspåstander.

Norsk KI-verktøy avslørte 200 ofre — nå rulles det ut over hele landet

En global teknologikamp mot et voksende problem

Den norske utrullingen skjer i en global kontekst der kampen mot digitalt overgrepsmateriell stadig blir mer krevende. Internasjonale aktører som Microsoft (PhotoDNA), Thorn og Google har lenge arbeidet med både hash-matching og maskinlæringsbaserte klassifikatorer for å avdekke kjent og ukjent materiale.

Thorns løsning «Safer» oppgir en treffsikkerhet på rundt 99 prosent for kjente overgrepsbilder. Meta hevder at 99 prosent av alt slikt materiale de fjerner, oppdages automatisk av AI-systemer. Disse tallene er imidlertid oppgitt av selskapene selv, og må leses med en viss kildekritisk distanse.

AI-generert materiale: Et nytt trusselbilde

Den kanskje mest alvorlige utfordringen globalt er den eksplosive veksten i AI-generert overgrepsmateriale (AIG-CSAM). Den britiske organisasjonen Internet Watch Foundation (IWF) rapporterte om hele 3 440 AI-genererte overgrepsvideor i 2025 — en økning på over 26 000 prosent fra året før, der bare 13 slike videoer ble registrert. Over halvparten ble klassifisert i den mest alvorlige kategorien.

Dette er problematisk fordi tradisjonelle hash-baserte verktøy ikke gjenkjenner syntetisk generert materiale som ikke tidligere er registrert i databaser. Det presser frem behovet for nye deteksjonsmetoder — og gjør den norske satsingen på ML-baserte verktøy mer relevant enn noensinne.

AI-generert overgrepsmateriale økte med over 26 000 prosent på ett år — og avslører svakhetene ved tradisjonell hash-matching.
~200
Ofre identifisert i Omegle-saken
26 362%
Økning i AI-genererte overgrepsvideoer (IWF, 2025)

Hva skjer videre?

Med nasjonal utrulling i alle politidistrikter er spørsmålet nå hvordan verktøyet integreres i den daglige etterforskningspraksisen, og hvilken opplæring tjenestepersonell får. Psykologisk belastning på etterforskere som håndterer slikt materiale er et kjent problem internasjonalt — noe australske kriminologiforskere har pekt på som en viktig gevinst ved KI-assistert sortering og analyse: menneskene slipper å se alt.

Norsk politi har ikke kommentert den konkrete implementeringsplanen offentlig, men utrullingen i seg selv signaliserer at teknologien anses som driftsverdig og pålitelig nok til operasjonell bruk i hele landet.