Popularne tematy
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
W 2026 roku AI przejdzie od hype'u do pragmatyzmu | Rebecca Bellan i Ram Iyer, TechCrunch
Jeśli 2025 był rokiem, w którym AI przeszło test wibracji, 2026 będzie rokiem, w którym technologia stanie się praktyczna. Skupienie już przesuwa się z budowania coraz większych modeli językowych na trudniejszą pracę, jaką jest uczynienie AI użytecznym. W praktyce oznacza to wdrażanie mniejszych modeli tam, gdzie pasują, wbudowywanie inteligencji w urządzenia fizyczne oraz projektowanie systemów, które płynnie integrują się z ludzkimi przepływami pracy.
Eksperci, z którymi rozmawiał TechCrunch, widzą 2026 jako rok przejścia, który ewoluuje od brutalnego skalowania do badania nowych architektur, od efektownych demonstracji do ukierunkowanych wdrożeń oraz od agentów, którzy obiecują autonomię, do tych, którzy rzeczywiście wspomagają sposób, w jaki ludzie pracują.
Impreza się nie skończyła, ale branża zaczyna trzeźwieć.
Prawo skalowania nie wystarczy
W 2012 roku artykuł Alexisa Krizhevsky'ego, Ilyi Sutskevera i Geoffreya Hintona na temat ImageNet pokazał, jak systemy AI mogą "uczyć się" rozpoznawać obiekty na zdjęciach, analizując miliony przykładów. Podejście to było kosztowne obliczeniowo, ale możliwe dzięki GPU. Rezultat? Dekada intensywnych badań nad AI, podczas gdy naukowcy pracowali nad wynalezieniem nowych architektur dla różnych zadań.
To kulminowało około 2020 roku, kiedy OpenAI uruchomiło GPT-3, które pokazało, jak proste zwiększenie modelu 100 razy odblokowuje zdolności takie jak kodowanie i rozumowanie bez potrzeby wyraźnego szkolenia. To oznaczało przejście do tego, co Kian Katanforoosh, dyrektor generalny i założyciel platformy AI Workera, nazywa "epoką skalowania": okresu zdefiniowanego przez wiarę, że więcej obliczeń, więcej danych i większe modele transformatorowe nieuchronnie doprowadzą do kolejnych wielkich przełomów w AI.
Dziś wielu badaczy uważa, że branża AI zaczyna wyczerpywać granice praw skalowania i ponownie przejdzie w erę badań.
Yann LeCun, były główny naukowiec AI w Meta, od dawna argumentuje przeciwko nadmiernemu poleganiu na skalowaniu i podkreśla potrzebę opracowania lepszych architektur. A Sutskever powiedział w niedawnym wywiadzie, że obecne modele osiągają plateau, a wyniki wstępnego szkolenia się spłaszczają, co wskazuje na potrzebę nowych pomysłów.
"Myślę, że najprawdopodobniej w ciągu następnych pięciu lat znajdziemy lepszą architekturę, która będzie znaczącym ulepszeniem w porównaniu do transformatorów," powiedział Katanforoosh. "A jeśli tego nie zrobimy, nie możemy oczekiwać dużych ulepszeń w modelach."
Czasami mniej znaczy więcej
Duże modele językowe świetnie generalizują wiedzę, ale wielu ekspertów twierdzi, że następna fala adopcji AI w przedsiębiorstwach będzie napędzana przez mniejsze, bardziej zwinne modele językowe, które można dostosować do rozwiązań specyficznych dla danej dziedziny.
"Dostosowane SLM-y będą wielkim trendem i staną się podstawą używaną przez dojrzałe przedsiębiorstwa AI w 2026 roku, ponieważ korzyści kosztowe i wydajnościowe będą napędzać ich użycie w porównaniu do gotowych LLM-ów," powiedział Andy Markus, dyrektor ds. danych w AT&T, w rozmowie z TechCrunch. "Już widzieliśmy, jak firmy coraz bardziej polegają na SLM-ach, ponieważ, jeśli są odpowiednio dostosowane, dorównują większym, zgeneralizowanym modelom pod względem dokładności w zastosowaniach biznesowych i są doskonałe pod względem kosztów i szybkości."
Widzieliśmy już ten argument ze strony francuskiego startupu AI Mistral: twierdzi, że jego małe modele w rzeczywistości osiągają lepsze wyniki niż większe modele w kilku benchmarkach po dostosowaniu.
"Efektywność, opłacalność i elastyczność SLM-ów sprawiają, że są one idealne do dostosowanych aplikacji, gdzie precyzja jest kluczowa," powiedział Jon Knisley, strateg AI w ABBYY, firmie AI z siedzibą w Austin.
...

Najlepsze
Ranking
Ulubione
