Gründere verden over har de siste årene bygget selskaper ved å legge et lag med brukergrensesnitt og forretningslogikk oppå store språkmodeller som GPT-4 eller Claude. Nå advarer en ledende stemme fra Google om at denne modellen kan ha en kortere fremtid enn mange tror.

«Wrappere» og aggregatorer i faresonen

I følge TechCrunch har en VP i Google gått ut med en tydelig advarsel: selskaper som primært fungerer som et tynt skall rundt eksisterende språkmodeller — såkalte LLM-wrappere — og plattformer som samler AI-tjenester fra flere leverandører, risikerer å bli utkonkurrert etter hvert som den generative AI-bransjen modnes.

Kjerneproblemene er todelt: marginene krymper og differensieringen er minimal. Når selve modellene blir billigere, raskere og mer tilgjengelige direkte fra leverandørene, forsvinner mye av verdien et mellomliggende lag kan tilby.

«Private kontekstdata er en vollgrav... Det er GPT-wrapper-selskaper, ikke foundation model-selskaper, som nå brobygger mellom råmodeller og brukerbehov.»
Google-VP advarer: To typer AI-startups vil ikke overleve

Hva skiller vinnerne fra taperne?

Forskning på vellykkede LLM-wrapper-startups peker på noen klare mønstre som skiller de som bygger varig verdi fra de som risikerer å bli utradert.

1. Vertikal spesialisering

I stedet for å bygge generiske AI-assistenter, retter vellykkede selskaper seg mot spesifikke bransjer. Studier viser at skreddersydde modeller for e-handel kan levere opptil 10,7 prosent bedre ytelse enn generiske GPT-wrapper-løsninger — noe som kan bety millioner i ekstra omsetning. I regulerte sektorer som finans og legemidler kan tilpassede modeller redusere hallusinasjonsraten med fem til åtte prosent, og er i mange tilfeller det eneste juridisk forsvarlige alternativet.

Franske Bioptimus hentet inn 76 millioner dollar i 2025 for å bygge en foundation-modell for biologifaget, mens Atomic AI har samlet inn rundt 42 millioner dollar til RNA-basert legemiddelutvikling. Begge er eksempler på selskaper som utnytter dyp domenekompetanse fremfor å konkurrere på bredde.

2. Proprietære data som vollgrav

En av de mest robuste konkurransefordelene er tilgang til unike datasett. Selskaper som benytter teknikker som Retrieval Augmented Generation (RAG) med intern, domènespesifikk data bygger en barriere som er vanskelig for konkurrenter å kopiere — uavhengig av hvilken underliggende modell som er tilgjengelig i markedet.

3. Orkestrering som konkurransefortrinn

En tredje vei er å bygge avanserte systemer som koordinerer flere modeller, datakilder og verktøy i produksjon. Markedet for AI-orkestrering er ifølge bransjeanalyser ventet å vokse med 23 prosent årlig frem til 2028, og over halvparten av alle selskaper er forventet å ha tatt i bruk slike plattformer innen 2025.

Veldesignede orkestreringssystemer skal ifølge tilgjengelige data kunne redusere AI-kostnader med opptil 60 prosent gjennom intelligent ruting og mellomlagring. Operasjonelle kostnader kan reduseres med ytterligere 30 prosent gjennom automatisering av salgs- og driftsprosesser.

23%
Forventet årlig vekst i AI-orkestreringsmarkedet (2023–2028)
60%
Mulig kostnadsreduksjon med veldesignede orkestreringssystemer
Google-VP advarer: To typer AI-startups vil ikke overleve

Særlig relevant for norske gründere

Det norske startup-miljøet har de siste to-tre årene sett en kraftig økning i selskaper som bygger tjenester oppå API-er fra OpenAI og Anthropic. Fra juridisk teknologi til HR-verktøy og kundeserviceplatformer — mange norske aktører befinner seg i akkurat den kategorien Google-VP-en nå retter søkelyset mot.

Advarselen betyr ikke at alle slike selskaper er dødsdømt, men den understreker behovet for en klar strategi for differensiering. Spørsmålet norske gründere bør stille seg, er om produktet deres ville overleve den dagen OpenAI eller Anthropic tilbyr den samme funksjonaliteten direkte i sine egne plattformer — noe som allerede har skjedd gjentatte ganger.

Hvis konkurrenten din kan kopiere deg ved å klikke «aktiver ny funksjon» i OpenAIs dashboard, er du ikke differensiert nok.

Hva bør startups gjøre nå?

Forskningsmaterialet peker mot noen konkrete tiltak. Selskaper som opererer i regulerte bransjer bør vurdere om tilpassede modeller med domènespesifikk trening er mulig — særlig ved volumer over 8 000 daglige samtaler, der kostnadsprofilen ifølge tilgjengelig forskning tipper i favør av egne løsninger fremfor API-avhengighet.

For de fleste vil det viktigste likevel være å investere i data — å samle, strukturere og bruke intern kunnskap på måter konkurrenter ikke kan replikere. Det er her de varige konkurransefortrinnene bygges, uavhengig av hvilken underliggende modell som vinner teknologikampen.

Kildene til denne artikkelen inkluderer TechCrunch (21. februar 2026) og bransjeanalyser av differensieringsstrategier blant LLM-wrapper-startups.