储层计算已经是科学家可以使用的最先进、最强大的人工智能类型之一,现在一项新的方法在某些任务上可以其速度提高一百万倍。
储层计算已经是科学家可以使用的最先进、最强大的人工智能类型之一——现在一项新的方法在某些任务上可以其速度提高一百万倍。
在解决最复杂的计算挑战时,这是一个令人兴奋的发展,从预测天气到模拟通过特定空间的流体流动等复杂的计算都用得着。
这些问题正是开发这种资源密集型计算所要解决的问题;现在,最新的创新将使它变得更加有用。这项新研究背后的团队称其为下一代储层计算。
俄亥俄州立大学的物理学家 Daniel Gauthier 说: “与储层计算目前所能做的相比,我们可以在很短的时间内使用更少的计算机资源来执行非常复杂的信息处理任务。”
“而且储层计算已经是对以前可能的显着改进。”
储层计算建立在神经网络(基于活体大脑运作方式的机器学习系统)的思想之上,经过训练可以在大量数据中发现模式。例如,向神经网络展示一千张狗的图片,它在下次出现时识别狗应该非常准确。
储层计算带来的额外能力的细节是非常技术性的。从本质上讲,该过程将信息发送到一个“储层”,在那里数据点以各种方式链接。然后将信息从储层中发送出来,进行分析,然后反馈给学习过程。
这在某些方面使整个过程更快,并且更适应学习序列。但它也严重依赖随机处理,这意味着储层内部发生的事情并不十分清楚。用工程术语来说,它是一个“黑匣子”——它通常有效,但没有人真正知道如何或为什么。
通过刚刚发表的新研究,可以通过消除随机化来提高储层计算机的效率。使用数学分析来确定储层计算机的哪些部分实际上对其工作至关重要,哪些不是。摆脱那些冗余位加快了处理时间。
最终结果之一是需要更少的“热身”期:这就是向神经网络提供训练数据的地方,为它应该做的任务做准备。研究团队在这里进行了重大改进。
“对于我们的下一代储层计算,几乎不需要热身时间,” Gauthier 说。
“目前,科学家必须输入 1,000 或 10,000 个或更多数据点来预热。这就是丢失的所有数据,实际工作不需要。我们只需要输入一两个或三个数据点.”
使用新系统在标准台式计算机上不到一秒钟就完成了一项特别困难的预测任务。使用当前的储层计算技术,即使在超级计算机上,同样的任务也需要更长的时间。
根据数据,新系统证明自己的速度提高了 33 到 163 倍。然而,当任务目标转移到优先考虑准确性时,更新后的模型快了 100 万倍。
这只是这种超高效神经网络类型的开始,其背后的研究人员希望在未来将其与更具挑战性的任务进行对抗。
“最让人兴奋的是,这个下一代储层计算的需要是什么已经很不错了,并使其显著更有效,”戈捷说。
该研究已发表在《自然通讯》上。