在采集美女站时,需要对关键词进行分词,最终采用的是python的结巴分词方法。
中文分词是中文文本处理的一个基础性工作,结巴分词利用进行中文分词。
其基本实现原理有三点:
1.基于Trie树结构实现高效的词图扫描,生成句子中汉字所有可能成词情况所构成的有向无环图(DAG)
2.采用了动态规划查找最大概率路径, 找出基于词频的最大切分组合
3.对于未登录词,采用了基于汉字成词能力的HMM模型,使用了Viterbi算法
安装(Linux环境)
下载工具包,解压后进入目录下,运行:python set