gpt2 ml:适用于多种语言的GPT2包括预先训练的模型。 GPT2多语言支持15亿个参数中文预训练模型 源码
适用于多种语言的GPT2 | 简化的GPT2训练脚本(基于Grover,支持TPU) 移植的bert令牌生成器,多语言语料库兼容 1.5B GPT2预训练中文模型(〜15G语料库,10w步) 含电池的Colab演示 1.5B GPT2预训练中文模型(〜30G语料库,22w步) 预训练模型 尺寸 语言 语料库 词汇 链接1 链接2 SHA256 1.5B参数 中文 约30G 线索(8021代币) e698cc97a7f5f706f84f58bb469d614e 51d3c0ce5f9ab9bf77e01e3fcb41d482 1.5B参数 中文 〜15克 伯特(21128代
下载地址
用户评论