Nel 2026, l'AI passerà dall'hype al pragmatismo | Rebecca Bellan & Ram Iyer, TechCrunch Se il 2025 è stato l'anno in cui l'AI ha ricevuto un controllo dell'atmosfera, il 2026 sarà l'anno in cui la tecnologia diventa pratica. L'attenzione si sta già spostando dalla costruzione di modelli linguistici sempre più grandi verso il lavoro più difficile di rendere l'AI utilizzabile. In pratica, ciò implica l'implementazione di modelli più piccoli dove si adattano, l'integrazione dell'intelligenza in dispositivi fisici e la progettazione di sistemi che si integrano perfettamente nei flussi di lavoro umani. Gli esperti con cui ha parlato TechCrunch vedono il 2026 come un anno di transizione, uno che evolve da una scalabilità brutale alla ricerca di nuove architetture, da dimostrazioni appariscenti a implementazioni mirate, e da agenti che promettono autonomia a quelli che effettivamente aumentano il modo in cui le persone lavorano. La festa non è finita, ma l'industria sta iniziando a disintossicarsi. Le leggi di scalabilità non basteranno Nel 2012, il documento di Alex Krizhevsky, Ilya Sutskever e Geoffrey Hinton su ImageNet ha mostrato come i sistemi AI potessero "imparare" a riconoscere oggetti nelle immagini guardando milioni di esempi. L'approccio era computazionalmente costoso, ma reso possibile grazie alle GPU. Il risultato? Un decennio di ricerca hardcore sull'AI mentre gli scienziati lavoravano per inventare nuove architetture per compiti diversi. Questo è culminato intorno al 2020 quando OpenAI ha lanciato GPT-3, che ha dimostrato come semplicemente rendere il modello 100 volte più grande sblocca abilità come la codifica e il ragionamento senza richiedere un addestramento esplicito. Questo ha segnato la transizione in quello che Kian Katanforoosh, CEO e fondatore della piattaforma di agenti AI Workera, chiama "l'era della scalabilità": un periodo definito dalla convinzione che più potenza di calcolo, più dati e modelli transformer più grandi avrebbero inevitabilmente guidato le prossime grandi scoperte nell'AI. Oggi, molti ricercatori pensano che l'industria dell'AI stia iniziando a esaurire i limiti delle leggi di scalabilità e passerà nuovamente a un'era di ricerca. Yann LeCun, ex chief AI scientist di Meta, ha a lungo sostenuto contro l'eccessiva dipendenza dalla scalabilità e ha sottolineato la necessità di sviluppare architetture migliori. E Sutskever ha detto in un'intervista recente che i modelli attuali stanno raggiungendo un plateau e i risultati del pre-addestramento si sono appiattiti, indicando la necessità di nuove idee. "Penso che molto probabilmente nei prossimi cinque anni troveremo un'architettura migliore che rappresenta un miglioramento significativo rispetto ai transformer," ha detto Katanforoosh. "E se non lo facciamo, non possiamo aspettarci molti miglioramenti dai modelli." A volte meno è di più I grandi modelli linguistici sono ottimi nel generalizzare la conoscenza, ma molti esperti dicono che la prossima ondata di adozione dell'AI nelle imprese sarà guidata da modelli linguistici più piccoli e agili che possono essere ottimizzati per soluzioni specifiche del dominio. "I SLM ottimizzati saranno la grande tendenza e diventeranno un elemento fondamentale utilizzato dalle imprese AI mature nel 2026, poiché i vantaggi in termini di costo e prestazioni guideranno l'uso rispetto agli LLM pronti all'uso," ha detto Andy Markus, chief data officer di AT&T, a TechCrunch. "Abbiamo già visto le aziende fare sempre più affidamento sugli SLM perché, se ottimizzati correttamente, eguagliano i modelli più grandi e generalizzati in termini di accuratezza per le applicazioni aziendali, e sono superbi in termini di costo e velocità." Abbiamo già visto questo argomento da parte della startup francese di AI a peso aperto Mistral: sostiene che i suoi modelli piccoli in realtà performano meglio rispetto ai modelli più grandi su diversi benchmark dopo l'ottimizzazione. "L'efficienza, il rapporto costo-efficacia e l'adattabilità degli SLM li rendono ideali per applicazioni su misura dove la precisione è fondamentale," ha detto Jon Knisley, stratega AI presso ABBYY, un'azienda di AI per le imprese con sede ad Austin. ...