Norsk politi tar et markant steg i kampen mot nettovergrep mot barn. KI-verktøyet som fikk internasjonal oppmerksomhet etter å ha bidratt til å identifisere nærmere 200 ofre i den såkalte Omegle-saken, er nå under nasjonal utrulling og skal tas i bruk av samtlige politidistrikter i landet, ifølge Digi.no.
Gjennombruddet i Omegle-saken
Omegle-saken, som involverte seksuelt misbruk av barn formidlet via den nå nedlagte chattjenesten Omegle, ble et internasjonalt referansepunkt for hvordan avansert teknologi kan brukes i etterforskning av denne typen kriminalitet. Det norske verktøyet spilte en sentral rolle i å analysere store mengder digitalt materiale og koble det til konkrete ofre — noe som ellers ville krevd enormt manuelt etterforskningsarbeid.
At nesten 200 ofre ble identifisert i én enkelt etterforskning, illustrerer potensialet teknologien bærer med seg.
KI-verktøyet som identifiserte nesten 200 ofre i Omegle-saken, rulles nå ut i samtlige politidistrikter i Norge.

Sverige ser til Norge
Ifølge Digi.no savner svensk politi tilsvarende verktøy. Dette plasserer Norge i en uvanlig posisjon som teknologisk foregangsland innen politiarbeid på dette feltet — og understreker at det norske utviklingsmiljøet rundt Griffeye og tilknyttede verktøy har levert noe som monner i praksis, ikke bare i teorien.
Det er imidlertid grunn til å understreke at detaljer om nøyaktig hvilke algoritmer og datasett som ligger til grunn for verktøyet, ikke er offentlig tilgjengelig. Prestasjonskrav og treffsikkerhet bør derfor vurderes ut fra dokumenterte resultater fra faktiske etterforskninger, snarere enn produsentenes egne markedsføringspåstander.

En global teknologikamp mot et voksende problem
Den norske utrullingen skjer i en global kontekst der kampen mot digitalt overgrepsmateriell stadig blir mer krevende. Internasjonale aktører som Microsoft (PhotoDNA), Thorn og Google har lenge arbeidet med både hash-matching og maskinlæringsbaserte klassifikatorer for å avdekke kjent og ukjent materiale.
Thorns løsning «Safer» oppgir en treffsikkerhet på rundt 99 prosent for kjente overgrepsbilder. Meta hevder at 99 prosent av alt slikt materiale de fjerner, oppdages automatisk av AI-systemer. Disse tallene er imidlertid oppgitt av selskapene selv, og må leses med en viss kildekritisk distanse.
AI-generert materiale: Et nytt trusselbilde
Den kanskje mest alvorlige utfordringen globalt er den eksplosive veksten i AI-generert overgrepsmateriale (AIG-CSAM). Den britiske organisasjonen Internet Watch Foundation (IWF) rapporterte om hele 3 440 AI-genererte overgrepsvideor i 2025 — en økning på over 26 000 prosent fra året før, der bare 13 slike videoer ble registrert. Over halvparten ble klassifisert i den mest alvorlige kategorien.
Dette er problematisk fordi tradisjonelle hash-baserte verktøy ikke gjenkjenner syntetisk generert materiale som ikke tidligere er registrert i databaser. Det presser frem behovet for nye deteksjonsmetoder — og gjør den norske satsingen på ML-baserte verktøy mer relevant enn noensinne.
Hva skjer videre?
Med nasjonal utrulling i alle politidistrikter er spørsmålet nå hvordan verktøyet integreres i den daglige etterforskningspraksisen, og hvilken opplæring tjenestepersonell får. Psykologisk belastning på etterforskere som håndterer slikt materiale er et kjent problem internasjonalt — noe australske kriminologiforskere har pekt på som en viktig gevinst ved KI-assistert sortering og analyse: menneskene slipper å se alt.
Norsk politi har ikke kommentert den konkrete implementeringsplanen offentlig, men utrullingen i seg selv signaliserer at teknologien anses som driftsverdig og pålitelig nok til operasjonell bruk i hele landet.
