维基百科中文语料(已分词) 上传者:baidu_27890 2019-05-17 06:37:14上传 TXT文件 300B 热度 60次 自己用来训练word2vec的,已提取文本,做了分词处理,过滤了大部分的特殊字符。共包含3273626个段落的文本(一个段落包含了多个语句)。处理后的语料有1.1G,由于文件较大,提供百度网盘下载地址。 下载地址 用户评论 更多下载 下载地址 立即下载 用户评论 码姐姐匿名网友 2019-05-17 06:37:14 没标点符号,几乎没什么用 码姐姐匿名网友 2019-05-17 06:37:14 可以,感谢楼主。 码姐姐匿名网友 2019-05-17 06:37:14 你好,请问SPLIT文件怎么使用啊 码姐姐匿名网友 2019-05-17 06:37:14 可以使用,感谢楼主奉献精神 码姐姐匿名网友 2019-05-17 06:37:14 好啊,分词精度还可以,但是没有标点符号 发表评论 baidu_27890 资源:3 粉丝:0 +关注 上传资源 免责说明 本站只是提供一个交换下载平台,下载的内容为本站的会员网络搜集上传分享交流使用,有完整的也有可能只有一分部,相关内容的使用请自行研究,主要是提供下载学习交流使用,一般不免费提供其它各种相关服务! 本站内容泄及的知识面非常广,请自行学习掌握,尽量自已动脑动手解决问题,实践是提高本领的途径,下载内容不代表本站的观点或立场!如本站不慎侵犯你的权益请联系我们,我们将马上处理撤下所有相关内容!联系邮箱:server@dude6.com
没标点符号,几乎没什么用
可以,感谢楼主。
你好,请问SPLIT文件怎么使用啊
可以使用,感谢楼主奉献精神
好啊,分词精度还可以,但是没有标点符号