SciBot:通过GPT 2 simple和nshepperd对科学文章进行了培训对GPT 2进行了微调 源码
微调的GPT-2科学文章生成 该机器人已通过GPT-2 simple和nshepperd fork进行了微调。 在当前的迭代中,我使用了来自PMC数据库的约1万篇论文。 所有论文均来自开放访问子集,所有作者均可在作者列表文本文件中找到。
下载地址
用户评论