Én videosamtale. 25,6 millioner dollar borte.

I januar 2024 ble en finansansatt i ingeniørfirmaet Arup invitert til en videokonferanse med sin CFO og flere kolleger. Alle ansikter var kjente. Stemmene stemte. Personen godkjente 15 separate bankoverføringer på til sammen 25,6 millioner dollar – tilsvarende rundt 270 millioner norske kroner.

Ingen av dem i samtalen var ekte mennesker. Alle var AI-genererte deepfakes.

Arup-saken er blitt et referansepunkt i debatten om autentisitet på nett – ikke fordi den var teknisk sofistikert utover det vanlige, men fordi den illustrerer noe grunnleggende: menneskelig tillit, ikke tekniske svakheter, var angrepsvektoren. Og det er nettopp her Microsoft og resten av tech-industrien nå setter inn støtet.

C2PA: Bransjestandarden som skal redde tilliten

Microsofts svar er ikke et nytt produkt – det er infrastruktur. Selskapet er en sentral aktør i Coalition for Content Provenance and Authenticity (C2PA), en åpen industristandard som bruker kryptografiske metadata til å feste en usynlig, manipulasjonssikker signatur til digitalt innhold i det øyeblikket det skapes.

Signaturen inneholder informasjon om hvem som skapte innholdet, med hvilket verktøy, når – og om det er redigert i ettertid. Microsoft Copilot har begynt å bygge inn støtte for C2PA Content Credentials i AI-genererte bilder, ifølge Windows Forum. Azure AI Content Safety-plattformen tilbyr allerede sanntidsverktøy for å oppdage og flagge syntetisk innhold.

Men Microsoft er langt fra alene. Google har integrert C2PA Assurance Level 2 direkte i Pixel-kameraenes maskinvare. TikTok gjør C2PA-merking obligatorisk for realistisk AI-innhold. YouTube bruker det for innhold laget med verktøy som Dream Screen. OpenAI og Adobe tok i bruk C2PA v2.1 i 2024 for manipulasjonssikker signering av AI-output, mens versjon 2.3 i 2025 la til støtte for direktesending og tekst.

Nyhetsbyråene AFP og BBC har pilotert standarden i valgdekning. Sony integrerer den i kameraer. Cloudflare bruker den til bevaring av metadata i distribusjonskjeden.

$1,87 mrd
Markedsverdi falsk-bilde-deteksjon 2026
$7,43 mrd
Anslått markedsverdi 2031 (31,7 % CAGR)
Krigen mot deepfakes: Slik vil Microsoft merke alt AI lager

Konkurrentene: Et marked i eksplosiv vekst

C2PA er en åpen standard, ikke et produkt – og rundt den har det vokst frem et marked av kommersielle aktører som konkurrerer om å levere løsningene.

Adobe Content Credentials er selskapets C2PA-kompatible implementasjon, bygget inn i verktøy som GenStudio og Experience Manager, og synlig på blant annet LinkedIn. Den tilbyr merkevare-signaturer, usynlig vannmerking og fingeravtrykk som overlever eksport og redigering i standardformater som JPEG, PNG og MP4.

Truepic inntar en annen vinkel: selskapet posisjonerer seg som «immunsystemet for digital virkelighet» og kombinerer maskinlæringsbasert deepfake-deteksjon med provenans-infrastruktur. Der Adobe fokuserer på enterprise-arbeidsflyter, er Truepic mer brukerorientert og deteksjonsrettet.

Googles SynthID er et proprietært vannmerke som er usynlig for det blotte øye, men detekterbart via Gemini-plattformen. Det representerer en parallell tilnærming: i stedet for åpen standard, et lukket, men svært robust system.

Felles for alle tilnærmingene er at de er komplementære, ikke gjensidig utelukkende. Mordor Intelligence anslår at markedet for falsk-bilde-deteksjon vokser fra 1,87 milliarder dollar i 2026 til 7,43 milliarder dollar innen 2031 – en årlig veksttakt på 31,7 %.

«C2PA beviser opprinnelse – ikke sannhet. Det er forskjellen mellom å vite hvem som laget noe, og å vite om det er sant.»
Krigen mot deepfakes: Slik vil Microsoft merke alt AI lager

Standardens kjente svakheter

Kritikerne av C2PA er ikke vanskelige å finne – og de har poenger som ingen kryptografisk signatur løser alene.

Manifest stripping er den enkleste angrepsvektoren: metadata kan fjernes. Et bilde uten C2PA-signatur er ikke nødvendigvis falskt – det kan like gjerne være et gammelt foto, et skjermbilde eller et bilde fra en kilde som ikke har implementert standarden. Fraværet av et stempel beviser ingenting.

Analog-hull-angrepet er mer subtilt: ved å re-fotografere eller re-innspille innhold mister man de digitale signaturene helt. Innholdet er ikke lenger «manipulert» i digital forstand – det er bare nytt innhold.

Frivillig adopsjon er den strukturelle kjerneutfordringen. Ondsinnede aktører vil per definisjon ikke merke innholdet sitt. Systemet beskytter mot tilfeldige feil og ærlige aktørers manipulasjon – ikke mot de som bevisst vil villede.

Dette er ikke hypotetiske svakheter. Forskning sitert i det internasjonale AI-sikkerhetsrapporten for 2026 understreker at selv state-of-the-art automatiserte deteksjonssystemer faller fra nærmest perfekt nøyaktighet i lab til 40–50 % feilrate under reelle forhold – særlig i live videokonferanser, nøyaktig den konteksten Arup-angrepet utnyttet.

Å fjerne C2PA-metadata tar sekunder. Å bygge tillit til et system som er avhengig av frivillig bruk, tar år.

EU setter frist: August 2026

Der frivillighet har sine grenser, kommer regulering. EUs AI-forordning – AI Act – setter en klar frist: 2. august 2026 er datoen da Article 50(2) trer i full kraft og gjør maskinlesbar merking av AI-generert innhold obligatorisk.

Kravene gjelder leverandører av generative AI-modeller og -systemer, som må implementere robuste, detekterbare merkingsmetoder – vannmerking, metadata, provenans-sertifikater for tekst – før innholdet plasseres på markedet. Deployere må sikre synlige etiketter for brukerne ved første eksponering.

Sanksjoner er ikke symbolske: bøter på opptil 35 millioner euro eller 7 % av global omsetning.

Et frivillig utkast til «Code of Practice» for merking ble publisert i desember 2025, med endelig versjon ventet til juni 2026. Et forslag under «Digital Omnibus»-pakken åpner for en begrenset seks måneders utsettelse til februar 2027 for systemer som allerede er på markedet – men Det europeiske personvernrådet (EDPB) og tilsynsmyndigheten EDPS har offentlig gått imot enhver forlengelse.

For norske og europeiske virksomheter betyr dette at C2PA ikke lenger bare er god praksis – det kan bli et konkret compliance-verktøy med juridisk forankring.

August 2024
EU AI Act trer i kraft
2024
Google, TikTok, YouTube, OpenAI og Adobe adopterer C2PA v2.1; AFP og BBC piloterer standarden i valgdekning
Desember 2025
EU publiserer frivillig utkast til «Code of Practice» for AI-merking
Juni 2026
Endelig «Code of Practice» ventes godkjent
2. august 2026
Article 50(2) i EU AI Act trer i kraft – obligatorisk maskinlesbar merking av AI-innhold

Hva skjer videre for Microsoft

Microsoft har foreløpig ikke offentliggjort en samlet lanseringsstrategi for C2PA-integrering på tvers av produktporteføljen. Bing, LinkedIn, Azure og Microsoft 365 er alle potensielle distribusjonskanaler – og LinkedIn har allerede begynt å vise Adobe Content Credentials-informasjon for innhold produsert med kompatible verktøy.

Azure AI Content Safety-plattformen er operativ og gir utviklere API-verktøy for innholdsfiltrering og deteksjon av syntetisk materiale i sanntid. Det er her den praktiske infrastrukturen bygges – ikke i én produktlansering, men gjennom å gjøre verktøyene tilgjengelige for de som skal bygge applikasjoner på toppen.

For mediebransjen, annonsører og virksomheter som håndterer sensitive transaksjoner, er implikasjonen enkel: teknologien er på vei, regulatorene setter frister, og Arup-saken viser hva som skjer når tillitsinfrastrukturen mangler. Et digitalt provenans-system er ikke sterkere enn andelen seriøse aktører som faktisk bruker det – men uten det er alternativet at menneskelig tillit forblir den svakeste lenken i kjeden.