AI 可能不需要大量的训练数据 | 汉娜·罗宾斯,约翰霍普金斯大学 摘要:新的研究表明,AI 不需要无尽的训练数据就能开始更像人类大脑。当研究人员重新设计 AI 系统以更好地类似生物大脑时,一些模型在没有任何训练的情况下产生了类似大脑的活动。这挑战了当今对 AI 开发的数据饥饿方法。这项工作表明,更聪明的设计可以显著加快学习,同时降低成本和能源使用。 --- 来自约翰霍普金斯大学的新研究表明,受生物学启发设计的人工智能系统即使在没有经过任何数据训练之前,也可以开始类似人类大脑的活动。研究表明,AI 的结构可能与其处理的数据量同样重要。 这项研究的发现发表在《自然机器智能》上,挑战了 AI 开发中的主导策略。研究强调,从类脑的架构基础开始的价值,而不是依赖数月的训练、庞大的数据集和巨大的计算能力。 重新思考数据密集型的 AI 方法 “目前 AI 领域的发展方式是将大量数据投入模型,并建立小城市规模的计算资源。这需要花费数千亿美元。与此同时,人类学习使用的数据非常少,”首席作者、约翰霍普金斯大学认知科学助理教授米克·博纳说。“进化可能出于某种原因趋向于这种设计。我们的工作表明,更类脑的架构设计使 AI 系统处于一个非常有利的起点。” 博纳和他的同事们旨在测试单靠架构是否能为 AI 系统提供更人性化的起点,而不依赖大规模训练。 比较流行的 AI 架构 研究团队专注于现代 AI 系统中常用的三种主要神经网络设计:变换器、全连接网络和卷积神经网络。 他们反复调整这些设计,创建了数十种不同的人工神经网络。没有一个模型事先经过训练。研究人员随后向这些未训练的系统展示了物体、人物和动物的图像,并将其内部活动与人类和非人类灵长类动物在观看相同图像时的脑反应进行了比较。 为什么卷积网络脱颖而出 增加变换器和全连接网络中的人工神经元数量几乎没有产生有意义的变化。然而,对卷积神经网络进行类似的调整导致的活动模式更接近人类大脑中观察到的模式。 研究人员表示,这些未训练的卷积模型的表现与传统 AI 系统相当,后者通常需要接触数百万甚至数十亿张图像。结果表明,架构在塑造类脑行为方面的作用比之前认为的更大。 通往更智能 AI 的更快路径 ...