文件名称:
WordEmbedding-WikiChinese:基于中文维基百科文本数据训练词向量-源码
开发工具:
文件大小: 4kb
下载次数: 0
上传时间: 2021-02-19
详细说明:基于中文维基百科文本数据训练词向量
一,数据获取
本词向量利用的是中文维基百科的语料进行训练。
语料地址: (大小1.16G)
也可以在我的网盘上下载:链接: 提取码:ihu4
二,数据转换
原数据的格式是xml,我们可以将其转换为txt。
这里使用的是gensim自带的WikiCorpus,首先读取xml文件到input_file中,然后其中的get_texts方法会生成一个get_texts器,每一个继承蕴含了一篇文章,这样我们就可以将其写入新的txt文件中了。
三,繁体数据转换为简体数据
该Wiki数据是繁体中文数据,我们要把他们转换为简体中文数据。
利用zhconv包。
四,分词
利用结巴分词。
五,去除非中文词
一些单词中会包含非中文的词,我们要利用正则表达式将该词移除。
判断是否中文词的正则表达式为: ^[\u4e00-\u9fa5]+$
六,词向量训练
利用from gens
(系统自动生成,下载前可以参看下载内容)
下载文件列表
相关说明
- 本站资源为会员上传分享交流与学习,如有侵犯您的权益,请联系我们删除.
- 本站是交换下载平台,提供交流渠道,下载内容来自于网络,除下载问题外,其它问题请自行百度。
- 本站已设置防盗链,请勿用迅雷、QQ旋风等多线程下载软件下载资源,下载后用WinRAR最新版进行解压.
- 如果您发现内容无法下载,请稍后再次尝试;或者到消费记录里找到下载记录反馈给我们.
- 下载后发现下载的内容跟说明不相乎,请到消费记录里找到下载记录反馈给我们,经确认后退回积分.
- 如下载前有疑问,可以通过点击"提供者"的名字,查看对方的联系方式,联系对方咨询.