热门话题
#
Bonk 生态迷因币展现强韧势头
#
有消息称 Pump.fun 计划 40 亿估值发币,引发市场猜测
#
Solana 新代币发射平台 Boop.Fun 风头正劲
在2026年,人工智能将从炒作转向务实 | Rebecca Bellan & Ram Iyer,TechCrunch
如果2025年是人工智能进行气氛检查的一年,那么2026年将是技术变得实用的一年。焦点已经从构建越来越大的语言模型转向使人工智能可用的更艰巨的工作。实际上,这涉及在合适的地方部署较小的模型,将智能嵌入物理设备中,以及设计能够与人类工作流程无缝集成的系统。
TechCrunch采访的专家们认为,2026年将是一个过渡之年,从粗暴的扩展转向研究新的架构,从华丽的演示转向有针对性的部署,从承诺自主的代理转向真正增强人们工作方式的代理。
派对还没有结束,但行业开始清醒过来。
扩展法则不再奏效
2012年,Alex Krizhevsky、Ilya Sutskever和Geoffrey Hinton的ImageNet论文展示了人工智能系统如何通过查看数百万个示例来“学习”识别图片中的物体。这种方法计算成本高,但通过GPU得以实现。结果呢?十年的硬核人工智能研究,科学家们努力为不同任务发明新的架构。
这一切在2020年达到了高潮,当时OpenAI推出了GPT-3,展示了仅仅将模型扩大100倍就能解锁编码和推理等能力,而无需明确的训练。这标志着Kian Katanforoosh,AI代理平台Workera的首席执行官和创始人所称的“扩展时代”的过渡:一个以更多计算、更多数据和更大变换模型必然推动人工智能下一个重大突破的信念为特征的时期。
如今,许多研究人员认为人工智能行业开始耗尽扩展法则的极限,并将再次过渡到研究时代。
Meta的前首席人工智能科学家Yann LeCun长期以来一直反对过度依赖扩展,并强调需要开发更好的架构。Sutskever在最近的一次采访中表示,当前模型正在趋于平稳,预训练结果已经平坦,表明需要新的想法。
“我认为在接下来的五年里,我们很可能会找到一种比变换器显著改进的更好架构,”Katanforoosh说。“如果我们找不到,我们就不能指望模型有太大的改进。”
有时少即是多
大型语言模型擅长于概括知识,但许多专家表示,下一波企业人工智能的采用将由较小、更灵活的语言模型推动,这些模型可以针对特定领域的解决方案进行微调。
“微调的SLM将成为2026年的大趋势,并成为成熟人工智能企业的主流,因为成本和性能优势将推动其使用,而不是现成的LLM,”AT&T的首席数据官Andy Markus告诉TechCrunch。“我们已经看到企业越来越依赖SLM,因为如果微调得当,它们在企业业务应用的准确性上与更大、通用的模型相匹配,并且在成本和速度方面表现出色。”
我们之前已经看到过来自法国开放权重人工智能初创公司Mistral的这一论点:它认为其小模型在经过微调后在多个基准测试中实际上表现优于较大模型。
“SLM的效率、成本效益和适应性使其成为精确度至关重要的定制应用的理想选择,”位于奥斯丁的企业人工智能公司ABBYY的人工智能战略家Jon Knisley说。
...

热门
排行
收藏
