SOTA论文也未必能被接收,谷歌科学家谈顶会审稿标准( 三 )
如果你宣称你的算法表现更优的原因是 X , 我希望看到你用实验证明了原因不是其它的 X1、X2……
正确性是很难验证的 。 过去五年 , 很多论文提出了很多度量学习方法 , 并被主要会议接收 。 不过 Musgrave et al. 2020 年的论文《A Metric Learning Reality Check》指出这些论文的实验方法并不一致 。
我当然不会得意洋洋地批判这一点 , 毕竟我也是其中的一员 。 我已经审阅过 10 多场会议和研讨会的论文 , 但老实说 , 单靠阅读 , 我只能理解其中 25% 。 为了写出一篇研究论文 , 作者可能会投入几十乃至数百小时来设计和执行实验 , 但我仅用几个小时来决定它是不是「正确的科学」 。 我很少遇到那些我真正有足够的专业能力执行严格的正确性评估的论文 。
我常常问自己一个问题:「怎样的实验能说服我相信作者的解释是正确的 , 而不是因为其它假设?这些作者检查过这些假设吗?」
我相信我们应该接收所有「合格的」论文 , 像是「品味」和「简洁性」这种更主观的看法不应被用作是否接收论文的标准 , 而应该保留为评估是否得奖、Spotlight 展示论文和 Oral 展示论文的标准 。 我不知道是否所有人都应该采用这样的标准 , 但作为一位审稿人 , 我觉得在接收 / 拒绝决策上保持公开透明至少会有一些帮助 。
推荐阅读
- 苹果iOS 14升级这么久,这10个隐藏功能你未必全知道
- 谷歌:想发AI论文?请保证写的是正能量
- 你真的会用iPhone吗?14个iOS实用技巧,你未必都知道
- 谷歌对内部论文进行“敏感问题”审查!讲坏话的不许发
- 2019年度中国高质量国际科技论文数排名世界第二
- 华为忍痛割爱要“卖子”?专家:未必不是一件好事
- 谷歌通过启动敏感话题审查来加强对旗下科学家论文的控制
- Arxiv网络科学论文摘要11篇(2020-10-12)
- 年年都考的数字鸿沟有了新进展?彭波老师的论文给出了解答!
- 打开深度学习黑箱,牛津大学博士小姐姐分享134页毕业论文