Norske selskaper innen finans, helse og offentlig sektor opplever et stadig sterkere press om å kjøre sensitive AI-arbeidsbelastninger på infrastruktur de selv kontrollerer. Debatten om suveren sky og lokale datasentre handler ikke lenger bare om ideologi — den handler om kroner, overholdelse av regelverk og strategisk kontroll over egne data.

En teknisk gjennomgang publisert på Towards Data Science tar for seg hvordan virksomheter kan bygge GPU-as-a-Service (GPUaaS) på egne servere ved hjelp av Kubernetes, med støtte for flerleietaker-arkitektur, planlegging av arbeidsbelastninger og kostnadsmodellering. Artikkelen gir et praktisk rammeverk for dem som vil unngå å bli låst til store skyaktører.

Hva koster det å eie egne GPU-er?

Kapitalutgiftene er betydelige. En NVIDIA H100-server med åtte GPU-enheter kan koste rundt 250 000 dollar — og det er bare startpunktet. Ifølge markedsundersøkelser referert av Towards Data Science-artikkelen kan strøm, kjøling og vedlikehold legge til ytterligere 40–60 prosent av maskinvareprisen over levetiden.

Bak disse tallene skjuler det seg en rekke driftsutgifter: spesialisert kjøleinfrastruktur, nettverksutstyr som 100GbE InfiniBand-svitsjer, lisenser og kvalifisert IT-personell. Maskinvaren avskrives normalt over tre til fem år, noe som krever planlegging for utskifting og oppgraderinger.

GPU-servere på norsk jord: Slik kan bedrifter spare 50% på AI-infrastruktur

Skyen er fleksibel — men kan bli kostbar

Offentlig sky-GPUaaS konkurrerer på tilgjengelighet og lavt inngangsnivå. Timepriser for NVIDIA H100 varierer fra rundt 1,50 dollar per time hos spesialiserte leverandører til mellom 4 og 8 dollar per time fra store hyperscalere ved bestilling uten forhåndsavtale, ifølge prisdata fra sent 2024 og tidlig 2025.

For eksperimentfaser, varierende arbeidsbelastninger og raske oppstarter er dette vanskelig å slå. Men ved kontinuerlig, høy utnyttelse endrer bildet seg raskt.

7–14 mnd
Break-even ved 90 %+ utnyttelse
14–24 mnd
Break-even ved 60–80 % utnyttelse

Ifølge analyser fra Accenture, gjengitt i forskningsgrunnlaget for denne artikkelen, blir lokal GPU-infrastruktur kostnadskonkurrerende med sky når utnyttelsesgraden konsekvent overstiger 60–70 prosent over maskinvarens levetid. Resultatet kan bli 30–50 prosent lavere totalkostnad over en treårsperiode.

GPU-servere på norsk jord: Slik kan bedrifter spare 50% på AI-infrastruktur

GDPR og datakontroll: Den norske dimensjonen

For virksomheter underlagt GDPR og sektorspesifikke reguleringer gir lokal infrastruktur en juridisk forutsigbarhet som offentlig sky sjelden kan matche fullt ut.

For norske selskaper i regulerte bransjer — spesielt helsesektoren, finansinstitusjoner og offentlige etater — er datakontroll og datasuverenitet ofte like viktig som selve kostnadsspørsmålet. Personopplysninger og sensitive forretningsdata som behandles av AI-systemer, kan være underlagt krav om at data ikke forlater EØS-sonen, eller i praksis norsk jurisdiksjon.

Skybaserte løsninger fra ikke-europeiske leverandører har skapt juridisk usikkerhet, særlig etter Schrems II-dommen og den pågående diskusjonen rundt CLOUD Act og amerikansk myndighetstilgang til data. Lokal GPUaaS eliminerer denne usikkerheten — forutsatt at infrastrukturen driftes korrekt.

Kubernetes som intern sky-plattform

Kjernen i den tekniske tilnærmingen som beskrives i Towards Data Science-artikkelen, er bruken av Kubernetes til å abstrahere GPU-ressurser og tilby dem som en intern tjeneste på tvers av ulike team og prosjekter. Dette muliggjør:

  • Flerleietaker-isolasjon: Ulike forretningsenheter eller prosjekter kan dele GPU-kapasitet uten å forstyrre hverandre
  • Dynamisk planlegging: Arbeidsbelastninger prioriteres og fordeles effektivt basert på behov
  • Kostnadssynlighet: Forbruk kan spores per team eller applikasjon, noe som gir grunnlag for intern prissetting og budsjettstyring
Kubernetes gjør det mulig å bygge en privat AI-sky — med samme elastisitet som offentlig sky, men full datakontroll.

Hvem bør velge hva?

Det finnes ingen universell fasit. Virksomheter med sporadiske AI-prosjekter, behov for rask skalering eller begrenset IT-kompetanse vil fortsatt finne offentlig sky mest hensiktsmessig. For dem med stabile, intensive arbeidsbelastninger — og særlig dem med strenge krav til datahåndtering — peker regnestykket i retning av lokal eller hybrid infrastruktur.

Den tekniske kompleksiteten er imidlertid ikke triviell. Å bygge og drifte en intern GPUaaS-plattform krever dyp kompetanse innen både maskinvare og Kubernetes-orkestrering — noe mange norske organisasjoner enten må bygge internt eller hente inn eksternt.

Kilden for denne artikkelen er Towards Data Science sin tekniske gjennomgang av GPUaaS-arkitektur for bedrifter, supplert med uavhengig markedsdata om GPU-priser og TCO-analyser.