I 2026 vil AI gå fra hype til pragmatisme | Rebecca Bellan & Ram Iyer, TechCrunch Hvis 2025 var året AI fikk en vibe-sjekk, vil 2026 være året teknologien blir praktisk. Fokuset flytter seg allerede bort fra å bygge stadig større språkmodeller og mot det hardere arbeidet med å gjøre AI brukbar. I praksis innebærer det å implementere mindre modeller der de passer, integrere intelligens i fysiske enheter, og designe systemer som integreres rent i menneskelige arbeidsflyter. Ekspertene TechCrunch snakket med ser på 2026 som et overgangsår, et år som utvikler seg fra brute-force-skalering til å forske på nye arkitekturer, fra flashy demoer til målrettede distribusjoner, og fra agenter som lover autonomi til agenter som faktisk forbedrer hvordan folk jobber. Festen er ikke over, men bransjen begynner å bli edru. Skaleringslovene holder ikke I 2012 viste Alex Krizhevsky, Ilya Sutskever og Geoffrey Hintons ImageNet-artikkel hvordan AI-systemer kunne «lære» å gjenkjenne objekter i bilder ved å se på millioner av eksempler. Tilnærmingen var beregningsmessig krevende, men muliggjort med GPU-er. Resultatet? Et tiår med hardcore AI-forskning mens forskere jobbet med å finne opp nye arkitekturer for ulike oppgaver. Det kulminerte rundt 2020 da OpenAI lanserte GPT-3, som viste hvordan det å gjøre modellen 100 ganger større låser opp evner som koding og resonnering uten å kreve eksplisitt trening. Dette markerte overgangen til det Kian Katanforoosh, administrerende direktør og grunnlegger av AI-agentplattformen Workera, kaller «skaleringens tidsalder»: en periode preget av troen på at mer datakraft, mer data og større transformatormodeller uunngåelig ville drive de neste store gjennombruddene innen KI. I dag mener mange forskere at AI-industrien begynner å tømme begrensningene for skaleringslovene og igjen vil gå inn i en forskningsalder. Yann LeCun, Metas tidligere sjefs-AI-forsker, har lenge argumentert mot overdreven avhengighet av skalering, og understreket behovet for å utvikle bedre arkitekturer. Og Sutskever sa i et nylig intervju at dagens modeller flater ut og at pretreningsresultatene har flatet ut, noe som indikerer et behov for nye ideer. "Jeg tror mest sannsynlig at vi i løpet av de neste fem årene vil finne en bedre arkitektur som er en betydelig forbedring sammenlignet med transformatorer," sa Katanforoosh. "Og hvis vi ikke gjør det, kan vi ikke forvente mye forbedring på modellene." Noen ganger er mindre mer Store språkmodeller er gode til å generalisere kunnskap, men mange eksperter sier at neste bølge av AI-adopsjon i bedrifter vil bli drevet av mindre, mer smidige språkmodeller som kan finjusteres for domenespesifikke løsninger. "Finjusterte SLM-er vil være den store trenden og bli en fast del brukt av modne AI-virksomheter i 2026, ettersom kostnads- og ytelsesfordelene vil drive bruken sammenlignet med ferdige LLM-er," sa Andy Markus, AT&Ts datasjef, til TechCrunch. "Vi har allerede sett at bedrifter i økende grad stoler på SLM-er fordi de, hvis de finjusteres riktig, matcher de større, generaliserte modellene i nøyaktighet for bedriftsapplikasjoner, og er fremragende når det gjelder kostnad og hastighet." Vi har sett dette argumentet før fra den franske openweight-AI-startupen Mistral: De hevder at deres små modeller faktisk presterer bedre enn større modeller på flere benchmarks etter finjustering. «Effektiviteten, kostnadseffektiviteten og tilpasningsevnen til SLM-er gjør dem ideelle for skreddersydde applikasjoner der presisjon er avgjørende,» sa Jon Knisley, en AI-strateg hos ABBYY, et Austin-basert bedrifts-AI-selskap. ...