soword科技言
永久公益免费API接口
提供永久免费的API接口,查看更多API接口,如果您有其他免费API资源,请联系我们,造福人类。
提供商务开发:小程序,系统,APP
定制开发,免费评估,免费咨询,价格便宜,售后保障,前往开发服务中心联系开发客服中心
DeepMind推出PoundNet,只是请不要称之为“思考”

如果你想关注人工智能方面的新闻,你最好随身携带一本英语词典,也许还有几本词源词典

当今人工智能的深度学习形式正在大量使用普通词汇,这些词汇可能会产生严重误导。这包括暗示机器实际上在做一个人做的事情,比如思考、推理、知道、看到、思考

最新的例子是来自伦敦谷歌人工智能部门DeepMind的一个新项目。DeepMind的研究人员周四公布了他们称之为PounderNet的程序,该程序可以选择是探索问题的可能性还是放弃。

DeepMind在计算机上把这个练习称为“思考”,但实际上它也可以被称为“减少损失”或“停止并着火”,“事实上,它与人类对这个术语的思考关系不大,而与计算机如何完成任务关系更大

由科学家Andrea Banino、Jan Balaguer和Charles Blundell描述的该程序,位于神经网络设计和计算机优化的有趣交叉点。

该程序是关于计算效率以及效率和准确性之间的权衡。正如作者所描述的,PounderNet是“一种新的算法,它可以根据手头问题的复杂性来调整计算量。”

此外:谷歌的超级模特:DeepMind Perceiver是通向一台可以处理任何事情和一切的人工智能机器的道路上的一步

PounderNet获得了在以下情况下缩短计算工作量的能力似乎到某个时间点为止的努力足以让神经网络做出可接受的预测。相反,如果这样做可以产生更好的结果,它可以扩展其计算

该项目一方面平衡了基准测试准确度的深度学习目标,另一方面也平衡了进一步努力不会产生太大影响的概率猜测。

巴尼诺及其同事多年来在条件计算等领域的大量研究成果。但他们最直接的影响似乎是他们的谷歌同事亚历克斯·格雷夫斯的工作。

格雷夫斯在神经网络设计和计算机操作的交叉点上积累了有趣的调查记录。例如,几年前,他和同事提出了一种“神经图灵机器”,其中从寄存器文件中选择内存将是神经网络计算的结果。

在PoundNet的案例中,巴尼诺和他的团队是在格雷夫斯2016年关于自适应计算时间的工作的基础上建立起来的。那篇论文的观点是在人类推理领域,问题的陈述和解决是不对称的。一个问题有时可能需要很少的努力来表达,但需要很多时间来解决。例如,两个数字相加要比除法容易,尽管符号的概念看起来几乎相同。

经典的例子,per Graves,是费马的最后一个定理,数学家称之为皮埃尔·德·费马在一本书的边缘所做的注释,后来科学家们花了三个世纪才证明了这一点。

,格雷夫斯提出了一种方法,让计算机根据预测问题的复杂性来计算它应该“思考”多长时间。

此外:DeepMind的AlphaFold 2揭示:卷积已经消失,注意点在

这实际上意味着一个预测的计算应该允许神经网络的多少层。神经网络程序是一种转换机器:它自动找到将输入转换为输出的方法。人工神经元的层数是衡量计算工作量的一种方法,输入必须通过人工神经元的层数才能成功地转化为精确的输出。

因此,思考意味着改变网络层数,从而改变网络的计算,决定计算机应在多长时间内放弃

正如格雷夫斯所写的那样,

为了计算效率和学习的方便性,似乎最好在发出输出之前动态地改变网络“思考”每个输入的步数。在这种情况下,沿序列的每一步网络的有效深度成为迄今为止接收到的输入的动态函数。

格雷夫斯这样做的方式是将所谓的“思考成本”附加到神经网络的末端,这是一种人们试图最小化的计算时间。然后,该程序预测停止计算其预测的最佳计算量。

与艾伦·图灵著名的“停止问题”理论相呼应,该理论开启了计算时代,Graves将程序中根据成本计算何时停止的部分标记为“停止单元”。

向前闪到PounderNet。巴尼诺和他的团队承担了格雷夫斯的任务,他们的主要贡献是重新解释如何思考最后一部分,停步部队。巴尼诺和他的团队注意到格雷夫斯的目标过于简单化,因为它只看最后一个神经网络层并说,“这就足够了”,这不是一种非常复杂的计算成本评估方法。

因此,研究人员提出了他们称之为概率方法的方法。PounderNet的开发使用了所谓的马尔可夫决策过程,一种状态模型,在网络的每一层处理中,程序正在计算停止计算的可能性。

另外:人工智能在60秒后

这个问题的答案是一个平衡点:如果神经网络的初始层从来没有停止过,则停止的概率为零可能是默认值这是一个有效的停止点;但是,如果过去的经验表明已经超过了一个阈值,更多的计算将导致收益递减,那么这就更接近于一个阈值。

正如作者所定义的,“在评估时,网络从停止的伯努利随机变量[…]中逐步取样,以决定是继续还是停止。”

证据就在布丁中。巴尼诺及其同事将该装置应用于各种任务的神经网络。他们写道,这种方法可以用于多种机器学习程序,从简单的神经网络反馈到所谓的自我关注程序,如谷歌的Transformer及其后代。

在他们的实验中,他们发现该程序实际上改变了计算量,以便在测试中做得更好。他们又回到坟墓里。那篇论文提出了所谓的奇偶校验测试。向程序输入一组数字,这些数字由零、一和负一的随机组合组成,并预测它们的输出。一个非常简单的神经网络,一个只有一层人工神经元的网络,基本上会得出50%的准确答案,这是一个掷硬币的过程。

由于具有增加计算的能力,格雷夫斯及其同事建立的程序做得更好。巴尼诺和他的同事们发现他们的项目甚至比那个项目做得更好。特别是,给定更多的随机数字,PounderNet以高可靠性得出正确的和,而Graves和团队的程序开始随机猜测。

“PounderNet能够在这项艰难的外推任务中实现几乎完美的准确性,而ACT[自适应计算时间]仍处于偶然水平,”他们写道。

埃德加·爱伦·坡在《乌鸦》中写道,“有一次,午夜沉闷,而我沉思,虚弱而疲惫。”

你可以看到一个关键的转变正在进行。格雷夫斯和他的团队试图设定一个界限,一个程序不应超过的有效计算预算的数量。从某种意义上说,巴尼诺和他的团队走的是相反的道路,设置程序的计算级别可能会重复地跳上提高精度的道路

所有这些引人入胜的科学的结果是,它可以为深度学习增加一个重要的工具,即以严格的方式将条件应用于一个程序需要做多少工作才能得到答案的能力。

作者指出了使神经网络更有效的重要性。鉴于人工智能有加剧气候变化的风险,人工智能不断增加的计算预算被认为是该领域的一个关键伦理问题。作者写道,“神经网络[…]需要大量时间、昂贵的硬件和精力来训练和部署

“PounderNet[…]可以用来减少推理时的计算量和能量,这使得它特别适合于资源有限的平台,如手机。”

作者有趣地还建议PounderNet将机器学习带向“行为更像算法,他们认为,这种改变“有助于开发深度学习方法,使其充分发挥潜力”,这有点隐晦

尽管PounderNet听起来很有前途,但你不应该被这个名字误导。这不是真正的思考。《韦氏词典》将“思考”一词定义为“在头脑中权衡”。同时还提供了“反思”和“思考”的定义。

无论人类在做这些事情时发生了什么,似乎都不涉及优化的成本函数。一个人在思考时也不会权衡成功的可能性,至少不会以一个程序可以实现的方式来衡量

当然,有人可能会走进房间,看到你坐在办公桌前,陷入沉思,然后有点恼怒地问,“你还在考虑这个问题吗?”其他人会附加一个成本函数,计算你浪费时间的概率。沉思者只是沉思。

诗人埃德加·爱伦·坡(Edgar Allan Poe)在他的诗《乌鸦》(The Raven)的开头一行中捕捉到了沉思行为的一些神秘性质——一种与其说是一个过程,不如说是一种体验,一种没有任何优化痕迹的东西:“有一次,在一个沉闷的午夜,当我沉思时,“虚弱和疲惫。”

小心,GPT-3,AI21的“侏罗纪”语言模型来了

诺顿生命洛克和Avast PLC将合并成84亿美元的交易

Jamf第二季度业绩最高预期,年收入增长,股价上涨

OpenAI说“你好,世界!”通过注册使用Codex代码生成工具的私人beta版,您同意使用条款,并承认隐私政策中概述的数据实践。

您还将免费订阅ZDNet的今日技术更新和ZDNet发布时事通讯。您可以随时取消订阅这些时事通讯。

您同意接收CBS公司系列的更新、提醒和促销活动,包括ZDNet的今日技术更新和ZDNet公告时事通讯。您可以随时取消订阅


2023-03-22 10:04:41

新人小程序+APP定制199元起


发放福利,助力中小企业发展,真正在互联网中受益

点击询问定制

广告服务展示