熱門話題
#
Bonk 生態迷因幣展現強韌勢頭
#
有消息稱 Pump.fun 計劃 40 億估值發幣,引發市場猜測
#
Solana 新代幣發射平臺 Boop.Fun 風頭正勁
在2026年,AI將從炒作轉向務實 | Rebecca Bellan & Ram Iyer,TechCrunch
如果2025年是AI進行氛圍檢查的一年,那麼2026年將是技術變得實用的一年。重點已經從構建越來越大的語言模型轉向使AI可用的更艱難的工作。實際上,這涉及在合適的地方部署較小的模型,將智能嵌入物理設備中,以及設計能夠與人類工作流程無縫集成的系統。
TechCrunch訪問的專家認為,2026年將是一個過渡之年,從粗暴的擴展轉向研究新架構,從華麗的演示轉向有針對性的部署,從承諾自主的代理轉向實際增強人們工作方式的代理。
派對還沒有結束,但行業開始清醒過來。
擴展法則無法滿足需求
2012年,Alex Krizhevsky、Ilya Sutskever和Geoffrey Hinton的ImageNet論文展示了AI系統如何通過查看數百萬個示例來“學習”識別圖片中的物體。這種方法計算成本高,但在GPU的幫助下變得可行。結果呢?十年的硬核AI研究,科學家們努力為不同任務發明新的架構。
這一切在2020年達到高潮,當時OpenAI推出了GPT-3,這表明僅僅將模型擴大100倍就能解鎖編碼和推理等能力,而不需要明確的訓練。這標誌著Kian Katanforoosh,AI代理平台Workera的首席執行官和創始人所稱的“擴展時代”的過渡:一個以更多計算、更多數據和更大變壓器模型將不可避免地推動AI下一次重大突破的信念所定義的時期。
如今,許多研究人員認為AI行業開始耗盡擴展法則的極限,將再次過渡到研究時代。
Meta的前首席AI科學家Yann LeCun長期以來一直反對過度依賴擴展,並強調需要開發更好的架構。Sutskever在最近的一次訪談中表示,當前模型正在平穩期,預訓練結果已經平坦,這表明需要新的想法。
“我認為在接下來的五年中,我們最有可能找到一種在變壓器上有顯著改進的更好架構,”Katanforoosh說。“如果我們找不到,我們就不能期待模型有太多改進。”
有時少即是多
大型語言模型擅長於概括知識,但許多專家表示,下一波企業AI採用將由較小、更靈活的語言模型推動,這些模型可以針對特定領域的解決方案進行微調。
“微調的SLM將是2026年的大趨勢,並成為成熟AI企業的主流,因為成本和性能優勢將推動其使用超越現成的LLM,”AT&T的首席數據官Andy Markus告訴TechCrunch。“我們已經看到企業越來越依賴SLM,因為如果微調得當,它們在企業商業應用中的準確性與更大、更通用的模型相匹配,並且在成本和速度方面表現出色。”
我們之前已經聽到過法國開放權重AI初創公司Mistral的這一論點:它主張其小型模型在多個基準測試中經過微調後實際上表現優於大型模型。
“SLM的效率、成本效益和適應性使其非常適合精確度至關重要的定制應用,”位於奧斯丁的企業AI公司ABBYY的AI策略師Jon Knisley說。
...

熱門
排行
收藏
