第272章 图奖大佬的肯定的方向(1 / 2)
而生成网络则要尽可能地欺骗判别网络。
两个网络相互对抗、不断调整参数。
最终目的是使判别网络无法判断生成网络的输出结果是否真实。
在前世图灵奖获得者、卷积神经网路之父YannLe在某次学术论坛上甚至将生成对抗网络模型称之为机器学习方面二十年来最酷的想法。
能得到图灵奖级别大老这样高度肯定,生成对抗网络模型的价值可想而知。
前世生成对抗网络作为非监督式学习的一种方法。
是由尹恩·古德费洛等人于2014年提出的。
不过这个时空由于机器学习方面的研究整体滞后。
这个前世颇为有名的深度学习模型在这个时空想要如约而至似乎是有些难度了。
前世生成式对抗网络自出现以来,针对不同的应用领域出现了许多变体。
这些变体相对于最原始的生成式对抗网络都进行了一定的改进。
这些改进有的是单纯改进了结构。
有的则是因为理论上的发展而对生成式对抗模型涉及到的一些函数或者说参数进行了一定的改进。
再或者就是单纯就应用方面进行了一定的创新调整。
一项技术被频繁改动不是说明这项技术失败。
刚好相反,这恰恰说明这项技术很成功。
因为这某种程度上从侧面反映了该技术有很多的成长空间。
事实也正是如此,前世生成式对抗网络是相当成功且应用广泛的。
在很多机器学习领域都能看到生成式对抗网络的身影。
之所以如此大概是因为原始的生成式对抗网络在构建的时候,先验假设比较少。
正是因为对数据几乎没有任何假设使得生成式对抗网络具有几乎不设限的建模能力。
借助于生成式对抗网路可以拟合多种分布。
此外,由于生成式对抗网路模型不甚复杂。
很多时候在应用生成式对抗网络的时候就不需要预先设计较为复杂的函数模型。
在不少生成式对抗网络的应用场景中,工程师甚至只需要应用反向传播算法简单训练一下对应的网络。
就可以让生成式对抗网络中的生成器和判别器正常工作。
之所以将生成式对抗网络搞得这么比较易上手。
跟生成式网络的设计初衷是为了进行无监督学习也有很大的关系。
不过事物都是有两面性的,正是因为原始生成式对抗网路过于自由。
训练过程很容易出现训练发散的情况。
不止于此,生成式对抗网络还存在诸如梯度消失等问题。
由于这些问题的存在,生成式对抗网络是很难学习一些生成离散的分布的。
就比如原始的生成式对抗网路就不是很擅长纯粹文本方面的处理。
除了涉及到部分场景下会将生成式对抗网络用于文本分割之外。
多数时候很少将生成式对抗网络应用于文本(特指纯粹文字形式的文本)方面。
不过尺有所长寸有所短,虽然并不是很擅长对纯粹文本信息的处理。
但在其余很多领域生成式对抗网路都可以大显身手。
在人脸识别方面、超分辨率重建等方面生成对抗网络更是大有用武之地。