量子位|LeCun之后Jeff Dean离奇躺枪,哥大黑人女博士:你们得引用我( 三 )


A姐主动拉业界大佬下水的举动对错先不论 , 她的关于PresGAN的研究到底价值几何?
什么是PresGAN?
那么 , PresGAN 到底是一个怎样的研究呢?
方法的全称叫做 Prescribed Generative Adversarial Networks , 直译过来就是「规定的GAN」 。
这项研究于去年10月11日在 arXiv 上发表 , 时间已经长达9个月 。
A姐表示 , 她的PresGAN在性能方面已经达到了 SOTA 水平 。
PresGAN 核心改良内容包括两点:
将噪声添加到密度网络的输出中 , 并优化了熵调节的对抗损失 。
增加的噪声使预测的对数似然性易于处理 , 并稳定了训练过程 。
在不同数据集上评估后 , 发现可以减轻模式崩溃并生成具有高感知质量的样本 。
量子位|LeCun之后Jeff Dean离奇躺枪,哥大黑人女博士:你们得引用我
本文插图

从上表的数据中可以看到 , FID指标 , 也就是计算真实图像和生成图像的特征向量之间距离的一种度量 , 与其它方法相比 , 性能是最好的 。
就传统GAN与变分自编码器(VAE)之间的预测对数似然性而言 , PresGAN缩小了性能差距 , 如下表所示 。
量子位|LeCun之后Jeff Dean离奇躺枪,哥大黑人女博士:你们得引用我
本文插图

圈里人如何看待PresGAN?
在各种数据集上性能表现都到了SOTA , 生成图像效果也不错 , 为什么圈内人对这项工作不买账呢?
Reddit 网友们 , 从纯学术角度给出了一些见解 。
首先是对PresGAN的技术本身 , 有网友认为:
问题出在它就是直接沿袭GAN , 所以看起确实有点奇怪 。
量子位|LeCun之后Jeff Dean离奇躺枪,哥大黑人女博士:你们得引用我
本文插图

有人还po出了一个GAN大杂烩的 GitHub 项目 , 提出了大大疑问:
项目里有这么多的GAN , (你觉得)有多少就应该被引用?
量子位|LeCun之后Jeff Dean离奇躺枪,哥大黑人女博士:你们得引用我
本文插图

然后非常犀利地评论道:
关键是她的论文在任何方面都不突出 。 我看不出这篇论文为什么就该被引用 。
量子位|LeCun之后Jeff Dean离奇躺枪,哥大黑人女博士:你们得引用我
本文插图

对A姐提出的质疑——为什么后出现的 BigBIGAN 会在演讲中被提及 , 而 PresGAN 却没有?
有网友给出了三个理由:
BigBIGAN的结果更令人印象深刻;
已被同行评议并发表在NeurIPS;
是Jeff Donahue写的 , 他是演讲的人之一 。
我认为这三个都是非常合理的理由 , 来解释为什么会在演讲中提到BigBIGAN , 而不是PresGAN , 这与种族/性别无关 。
量子位|LeCun之后Jeff Dean离奇躺枪,哥大黑人女博士:你们得引用我
本文插图

至于A姐对她论文引用量方面的抱怨 , 也有网友跳出来评论道:
如果大多数研究人员更关心新的研究 , 而不是担心他们以前的工作有多少被引用 , 那他们的情况会好得多 。
量子位|LeCun之后Jeff Dean离奇躺枪,哥大黑人女博士:你们得引用我
本文插图

「This needs to stop!」
或许是随着BLM活动的愈演愈烈 , 社交网络中的机器学习圈子 , 最近也是弥漫了一些别样的味道 。
有网友便「直击七寸」地指出了这个问题 。
量子位|LeCun之后Jeff Dean离奇躺枪,哥大黑人女博士:你们得引用我
本文插图

包括Yann LeCun的事情 , 这种「有毒」的行为正充斥着 ML 社区 。
每天都会产出大量的ML论文(难道篇篇都得被引用不成) 。
而最为精辟的便是最后一句话:


推荐阅读