PapersWithCode发布代码完整性自查清单:想获更多星,注意这五项( 二 )


最后 , 有些用户可能想试验你的模型在某些样本数据上是否有效 。 提供预训练模型能够让用户了解你的研究并进行试验 , 从而理解论文的成果 。
5. 结果
README 文件内应包括结果和能够复现这些结果的脚本 。 结果表格能让用户快速了解从这个 repo 中能够期待什么结果 。
PapersWithCode发布代码完整性自查清单:想获更多星,注意这五项
本文插图

README.md 模板中的示例(模板地址:https://github.com/paperswithcode/releasing-research-code/blob/master/templates/README.md)
能够复现结果的指令给用户提供了另外一个切入点 , 能够直接促进可复现性 。 在一些情况下 , 论文的主要结果只有一张图 , 对于没有读过论文的用户 , 理解起来会很困难 。
你还可以放置包含其他论文最新结果的完整排行榜链接 , 这有助于用户进一步理解你的研究结果 。
具备代码完整性的项目示例
此外 , 该团队还提供了多个具备代码完整性的项目 , 以及有助于代码提交的额外资源 。
NeurIPS 2019 项目示例
https://github.com/kakaobrain/fast-autoaugment
https://github.com/bknyaz/graph_attention_pool
https://github.com/eth-sri/eran
https://github.com/NVlabs/selfsupervised-denoising
https://github.com/facebookresearch/FixRes
额外资源
预训练模型文件托管平台:
Zenodo
GitHub Releases
Google Drive
Dropbox
AWS S3
模型文件管理工具:
RClone
标准化模型界面:
PyTorch Hub
Tensorflow Hub
Hugging Face NLP models
结果排行榜:
Papers with Code leaderboards
CodaLab
NLP Progress
EvalAI
Weights & Biases - Benchmarks
制作项目页面工具:
GitHub pages
Fastpages
制作 demo 和教程工具:
Google Colab
Binder
Streamlit
参考链接:
https://medium.com/paperswithcode/ml-code-completeness-checklist-e9127b168501
【PapersWithCode发布代码完整性自查清单:想获更多星,注意这五项】https://github.com/paperswithcode/releasing-research-code


推荐阅读