1. 首页
  2. 人工智能
  3. 机器学习
  4. 维基百科中文语料(已分词)

维基百科中文语料(已分词)

上传者: 2019-05-17 06:37:14上传 TXT文件 300B 热度 60次
自己用来训练word2vec的,已提取文本,做了分词处理,过滤了大部分的特殊字符。共包含3273626个段落的文本(一个段落包含了多个语句)。处理后的语料有1.1G,由于文件较大,提供百度网盘下载地址。
下载地址
用户评论
码姐姐匿名网友 2019-05-17 06:37:14

没标点符号,几乎没什么用

码姐姐匿名网友 2019-05-17 06:37:14

可以,感谢楼主。

码姐姐匿名网友 2019-05-17 06:37:14

你好,请问SPLIT文件怎么使用啊

码姐姐匿名网友 2019-05-17 06:37:14

可以使用,感谢楼主奉献精神

码姐姐匿名网友 2019-05-17 06:37:14

好啊,分词精度还可以,但是没有标点符号