您当前的位置:科技中国网要闻正文

告别调参炼丹谷歌权重无关神经网络开源了

放大字体  缩小字体 2019-08-28 15:30:39  阅读:2850 作者:责任编辑NO。蔡彩根0465

新智元报导

来历:Google AI

作者:Adam Gaier&David Ha 修改:小芹

【新智元导读】谷歌大脑备受重视的“权重无关神经网络”总算开源了!其要害思维是经过不再着重权重来查找网络结构,仅运用随机同享的权重,也能够履行各种使命的神经网络。总算能够不必调参炼丹了吗?快来复现看看!

神经网络练习中 “权重” 有多重要显而易见。但谷歌前段时间宣告的研讨标明,即便扔掉神经网络权重练习,运用随机同享权重,也能够履行各种使命。

他们提出一种新的神经网络结构的查找办法——权重无关神经网络(Weight Agnostic Neural Networks,WANN),其要害思维是经过不再着重权重来查找网络结构

今日,该研讨的两位作者、谷歌大脑学生研讨员 Adam Gaier和研讨科学家David Ha在Google AI博客上撰文,介绍了该研讨的中心思维和重要细节,并宣告WANN的代码现已在GitHub上开源,以便让广泛的研讨社区重现WANN试验。

开源地址:

https://github.com/google/brain-tokyo-workshop/tree/master/WANNRelease

离别调参炼丹,运用随机同享权重足矣!

当练习神经网络完结一项给定使命时,无论是图画分类仍是强化学习,一般都需求调优与网络中每个衔接相关的一组权重。另一种现已取得实质性发展的成功的神经网络创立办法是神经架构查找,它运用人工规划的组件(如卷积网络组件或transformer blocks)来构建神经网络架构。

研讨标明,运用这些组件构建的神经网络结构,如深度卷积网络,对图画处理使命具有很强的概括误差,乃至能够在权重随机初始化的情况下履行。尽管神经架构查找供给了一些新的办法,能够为当时的使命域组织具有已知概括误差的手艺工程组件,但在主动发现具有此类概括误差的新神经网络架构(用于不同的使命域)方面几乎没有发展。

咱们能够用一个先天和后天的比如作为类比。正如生物学中某些从出生起就具有反捕食行为的物种相同,他们无需学习就能履行杂乱的运动和感官使命,或许咱们能够构建一个不需求练习就能很好地完结使命的神经网络。当然,这些天然物种(作为类比,人工神经网络)经过练习能够得到进一步的改善,但它们即便不学习也能履行使命的才能标明,它们包括使它们十分合适于这些使命的误差。

在“权重无关神经网络”(WANN)论文中,咱们提出了查找具有这类误差的网络的第一步:即便运用随机同享的权重,也能够履行各种使命的神经网络架构

咱们在这项作业中的动机是,在不学习任何权重参数的情况下,仅神经网络架构能在多大程度上编码给定使命的解决方案。经过探究这样的神经网络架构,咱们提出了一种无需学习权重参数就能在其环境中运转杰出的智能体。

此外,为了促进该范畴的前进,咱们还开放了源代码,以便更广泛的研讨社区重现咱们的WANN试验。

左图:一个手艺规划的、彻底衔接的深度神经网络,有2760个权重衔接。运用一种学习算法,咱们能够求解2760个权重参数的调集,使该网络能够履行一个双足步行使命(BipedalWalker-v2)。

右图:一个权重无关的神经网络架构,只要44个衔接,但相同能够履行双足步行使命。与彻底衔接网络不同的是, WANN依然能够履行使命,而不需求练习每个衔接的权重参数。实际上,为了简化练习,WANN被规划成在每个权重衔接的值相同或同享时履行,乃至就算同享权重参数是随机采样的,也会起作用。

查找权重无关神经网络

咱们从一组最小的神经网络架构候选目标开端,每个候选目标只要很少的衔接,并运用一个完善的拓扑查找算法(NEAT),经过逐一地添加单个衔接和单个节点来演化架构。

WANN背面的要害思维是经过不再着重权重来查找架构。与传统的神经架构查找办法不同,新架构的一切权重参数都需求运用学习算法进行练习,咱们采用了一种更简略、更有用的办法。

在查找过程中,首先在每次迭代中为一切候选架构分配一个同享权重值,然后进行优化,以便在更宽的同享权重值范围内履行杰出。

用于查找网络拓扑空间的运算符

左:一个最小的网络拓扑结构,输入和输出仅部分衔接。

中心:网络的改动有三种办法:

(1)刺进节点:经过切割现有衔接刺进新节点。

(2)添加衔接:经过衔接两个从前未衔接的节点来添加一个新衔接。

(3)更改激活:重新分配躲藏节点的激活函数。

右:或许的激活函数(线性,阶跃,正弦, 余弦,高斯,tanh, sigmoid,inverse,绝对值,ReLU)

除了探究一系列与权重无关的神经网络之外,重要的是还要寻觅只需求杂乱到它们所需的程度的网络架构。咱们运用多目标优化技术( multi-objective optimization),一起对网络的功能和杂乱度进行优化。

权重无关神经网络查找的概述,及其相应的网络拓扑空间查找算子。

练习WANN架构

与传统网络不同的是,咱们能够经过简略地找到最佳的单个同享权重参数来练习WANN,然后最大极限地进步其功能。鄙人面的比如中,能够看到咱们的架构(在某种程度上)运用稳定的权重来完结一个 swing-up cartpole 使命:

WANN在不同的权重参数下履行 swing-up cartpole 使命,也运用微调的权重参数。

正如咱们在上面的图中看到的,尽管WANN能够运用一系列同享权重参数来履行其使命,可是其功能依然无法与学习每个衔接的权重的网络相比较。

假如咱们想进一步进步它的功能,咱们能够运用WANN架构和最佳同享权重作为起点,运用学习算法微调每个衔接的权重,就像一般练习神经网络的办法相同。以网络架构的权重无关特性为起点,经过学习微调网络的功能,或许有助于为了解动物怎么学习供给有洞察力的类比。

经过在功能和网络简略性方面的多目标优化,咱们的办法找到了一个简略的WANN,用于赛车使命,它不需求显式地练习网络的权重。

运用随机权重的网络架构不只易于练习,还具有其他优势。例如,经过运用相同WANN架构的副本,可是为WANN的每个副本都分配不同的权重值,咱们能够为同一使命创立多个不同模型的调集。这种调集一般比单个模型能取得更好的功能。下面是一个MNIST分类器处理随机权重的比如,能够阐明这一点:

MNIST分类器进化为处理随机权重。

具有随机初始化的传统网络在 MNIST 上的精度约为 10%,但这种随机权重的特别网络架构在 MNIST 上的精度 (> 80%) 显着优于随机初始化网络。当运用一组WANNs,为每个WANN分配一个不同的同享权重时,精度进步到 > 90%。

即便不运用集成办法,也能够将网络中的权重值压缩到一个网络,然后使网络能够快速调整。快速调整权重的才能或许在继续的终身学习(lifelong learning)中很有用,在这种学习中,agent在整个生命周期中取得、适应和搬运技术。这使得WANN特别合适运用 Baldwin效应, Baldwin效应是一种进化压力,即奖赏那些倾向于学习有用行为的个别,而不会堕入“learning to learn”这个贵重的核算圈套。

定论

咱们期望这项作业能够作为一个垫脚石,协助发现新的根底神经网络组件,如卷积网络,其发现和运用现已在深度学习范畴取得了令人难以置信的发展。自卷积神经网络被发现以来,研讨界可用的核算资源明显添加。假如咱们将这些资源投入到主动发现神经网络架构中,并期望完成网络架构的突破性改善,那么咱们信任,运用新的构建块来查找也是值得的。

论文地址:

https://weightagnostic.github.io/

开源传送门:

https://github.com/google/brain-tokyo-workshop/tree/master/WANNRelease

“如果发现本网站发布的资讯影响到您的版权,可以联系本站!同时欢迎来本站投稿!