点数信息
www.dssz.net
注册会员
|
设为首页
|
加入收藏夹
您好,欢迎光临本网站!
[请登录]
!
[注册会员]
!
首页
移动开发
云计算
大数据
数据库
游戏开发
人工智能
网络技术
区块链
操作系统
模糊查询
热门搜索:
源码
Android
整站
插件
识别
p2p
游戏
算法
更多...
在线客服QQ:632832888
当前位置:
资源下载
搜索资源 - jieba词典
下载资源分类
移动开发
开发技术
课程资源
网络技术
操作系统
安全技术
数据库
行业
服务器应用
存储
信息化
考试认证
云计算
大数据
跨平台
音视频
游戏开发
人工智能
区块链
在结果中搜索
所属系统
Windows
Linux
FreeBSD
Unix
Dos
PalmOS
WinCE
SymbianOS
MacOS
Android
开发平台
Visual C
Visual.Net
Borland C
CBuilder
Dephi
gcc
VBA
LISP
IDL
VHDL
Matlab
MathCAD
Flash
Xcode
Android STU
LabVIEW
开发语言
C/C++
Pascal
ASM
Java
PHP
Basic/ASP
Perl
Python
VBScript
JavaScript
SQL
FoxBase
SHELL
E语言
OC/Swift
文件类型
源码
程序
CHM
PDF
PPT
WORD
Excel
Access
HTML
Text
资源分类
搜索资源列表
文本分类系统
TextClassify文本分类系统适用于中文,英文文本分类。 包括各个文本的关键词输出,可以控制关键词输出个数,也可以对关键词加入黑名单和白名单。 关于TextClassify文本分类系统的改进: 改进jieba中文分词词典 改进黑名单:增加停用词 改进白名单:增加专业词 在TextProcess改进每一类text至多选FileInFolder个:理论上越多越好 deleteN的选取:可以优化 特征词的长度限定:unicode不过长,不过短 特征词词典dict_size的选取:可以优化 特征
所属分类:
Python
发布日期:2014-06-17
文件大小:1048576
提供者:
lining0806
Jieba0.35中文分词组件
Jieba是一个中文分词组件,可用于中文句子/词性分割、词性标注、未登录词识别,支持用户词典等功能。该组件的分词精度达到了97%以上。
所属分类:
Python
发布日期:2016-03-23
文件大小:7340032
提供者:
sanqima
结巴分词jar包
jieba “结巴”中文分词:做最好的 Python 中文分词组件 "Jieba" (Chinese for "to stutter") Chinese text segmentation: built to be the best Python Chinese word segmentation module. Scroll down for English documentation. 特点 支持三种分词模式: 精确模式,试图将句子最精确地切开,适合文本分析; 全模 式,把句子中所有的可以
所属分类:
Java
发布日期:2017-05-15
文件大小:2097152
提供者:
subson
企业名称词典
实现公司名及公司地址的模糊匹配,也可以迁移到房产信息、电话号码之类的字段上。本来的应用场景是反团伙欺诈以及失联客户的修复,大概的意思就是说多个相同公司的同事都在我公司借贷的欺诈可能性要高于其他客户,以及造假的房产信息和电话号码可能不完全相同,但有一定的相似性,我们需要把这些客户找出来,但是又不能用精确匹配。
所属分类:
机器学习
发布日期:2017-08-31
文件大小:3145728
提供者:
t15600624671
中文分词词库
分词词库字典,主要为百度中文分词,主要用于中文jieba分词的自定义词典,或者其他分词工具的自定义词典等。
所属分类:
算法与数据结构
发布日期:2017-09-20
文件大小:8388608
提供者:
qq_39308905
40万汉语分词词库
汉语大词库。总量为四十多万个。可以用于jieba等分词模块的分词的时候用。也可以自定义作为专业文档的分词的词典用。
所属分类:
算法与数据结构
发布日期:2017-09-20
文件大小:784384
提供者:
qq_39308905
jieba分词词典和停用词
利用jieba分词进行文本的处理这里面是jieba分词所需要的词典和停用词
所属分类:
机器学习
发布日期:2018-03-28
文件大小:2097152
提供者:
qq_33771080
基于隐马尔科夫模型的分词
使用隐马尔科夫模型(Hidden Markov Model,HMM) 进行分词,并与基于词典的正向最大匹配算法和工业界使用的jieba分词进行对比。 采用最大似然估计的方法从带标记样本学习模型参数,并通过维特比算法进行解码。
所属分类:
机器学习
发布日期:2018-01-24
文件大小:6291456
提供者:
iredbean
jieba_分词
支持三种分词模式: 精确模式,试图将句子最精确地切开,适合文本分析;全模式,把句子中所有的可以成词的词语都扫描出来, 速度非常快,但是不能解决歧义;搜索引擎模式,在精确模式的基础上,对长词再次切分,提高召回率,适合用于搜索引擎分词。支持繁体分词支持自定义词典MIT 授权协议
所属分类:
机器学习
发布日期:2018-10-09
文件大小:11534336
提供者:
abc_xian
【深度学习语料库】常见金融领域词汇词典
金融方面的常见词汇形成的词典/语料库,jieba.load_userdict()即可使用
所属分类:
深度学习
发布日期:2018-10-15
文件大小:15360
提供者:
qq_35825325
2018最新停用词词典
2018最新停用词词典,用于jieba停用词词典,载入后可以减少分词噪音
所属分类:
Python
发布日期:2018-09-09
文件大小:9216
提供者:
u014043991
jieba青春有你2自定义python分词词典
jieba青春有你2自定义分词词典,青春有你2评论爬取,青春有你2视频饭圈自定义分词词典,jieba分词Python分词词典
所属分类:
网络基础
发布日期:2020-04-28
文件大小:499
提供者:
weixin_47278555
jieba-master.zip
jieba 是目前最好的 Python 中文分词组件,它主要有以下 3 种特性: 支持 3 种分词模式:精确模式、全模式、搜索引擎模式 支持繁体分词 支持自定义词典 安装:先下载,随便解压到一个地方,cmd 进入对应文件夹后运行 python setup.py install
所属分类:
Python
发布日期:2020-04-02
文件大小:24117248
提供者:
happyjacob
jieba.NET-master.zip
分词 jieba.NET版本(C#实现) * 支持三种分词模式: - 精确模式,试图将句子最精确地切开,适合文本分析; - 全模式,把句子中所有的可以成词的词语都扫描出来, **速度非常快,但是不能解决歧义。 具体来说,分词过程不会借助于词频查找最大概率路径,亦不会使用HMM; - 搜索引擎模式,在精确模式的基础上,对长词再次切分,提高召回率,适合用于搜索引擎分词。 * 支持繁体分词 * 支持添加自定义词典和自定义词 * MIT 授权协议
所属分类:
C#
发布日期:2020-01-07
文件大小:11534336
提供者:
chengbi0653
jieba分词词典大全dict.rar
自己搜集来的词典,有重复的一些,自己甄别,里面包了清华大学词典,台湾大学词典,知网词典等,褒义词,贬义词,情感词一类的,反正挺多的
所属分类:
机器学习
发布日期:2019-10-07
文件大小:4194304
提供者:
qq_20707221
Python jieba结巴分词原理及用法解析
1、简要说明 结巴分词支持三种分词模式,支持繁体字,支持自定义词典 2、三种分词模式 全模式:把句子中所有的可以成词的词语都扫描出来, 速度非常快,但是不能解决歧义 精简模式:把句子最精确的分开,不会添加多余单词,看起来就像是把句子分割一下 搜索引擎模式:在精简模式下,对长词再度切分 # -*- encoding=utf-8 -*- import jieba if __name__ == '__main__': str1 = '我去北京天安门广场跳舞' a = jieba.lcut(s
所属分类:
其它
发布日期:2020-12-16
文件大小:83968
提供者:
weixin_38617196
浅谈python jieba分词模块的基本用法
jieba(结巴)是一个强大的分词库,完美支持中文分词,本文对其基本用法做一个简要总结。 特点 支持三种分词模式: 精确模式,试图将句子最精确地切开,适合文本分析; 全模式,把句子中所有的可以成词的词语都扫描出来, 速度非常快,但是不能解决歧义; 搜索引擎模式,在精确模式的基础上,对长词再次切分,提高召回率,适合用于搜索引擎分词。 支持繁体分词 支持自定义词典 MIT 授权协议 安装jieba pip install jieba 简单用法 结巴分词分为三
所属分类:
其它
发布日期:2020-12-23
文件大小:97280
提供者:
weixin_38713057
深入研究中文分词利器——Jieba
jieba的分词 jieba安装后的位置: 可以修改里面的dict.txt文本,或者把自定义的词典直接改到这个目录,当jieba初始化的时候会创建索引。jieba.load_userdict()其实也是把额外的词典放加入的默认的词典里的。 使用jieba.load_userdict()的方式: 使用前没有把“区块链分开”,使用后就分开了。 还有另一种方法是直接修改默认的词典: 但是需要删除缓存,则运行原来的代码,jieba会重新构建: 效果如下: 参考: jieba加载自定义大词典
所属分类:
其它
发布日期:2021-01-07
文件大小:432128
提供者:
weixin_38732343
【深度学习语料库】常见金融领域词汇词典
金融方面的常见词汇形成的词典/语料库,jieba.load_userdict()即可使用
所属分类:
算法与数据结构
发布日期:2021-03-08
文件大小:8192
提供者:
sangsi
手把手教你Python3使用Jieba工具
疫情宅在家,只能静下心来弄毕设~ 话不多说,直接上干货,本篇博客包含: 中文分词 添加自定义词典 词性标注 关键词抽取 环境: Python3.5 Jieba-0.39 Pycharm2018 一、安装jieba 在安装有python3 和 pip 的机子上,安装jieba库很简单,使用pip即可: pip install jieba 二、Jieba分词特性 1、支持三种分词模式: 精确模式,试图将句子最精确地切开,适合文本分析; 全模式,把句子中所有的可以成词的词语都扫描出来,
所属分类:
其它
发布日期:2021-01-20
文件大小:1048576
提供者:
weixin_38651165
«
1
2
»