点数信息
www.dssz.net
注册会员
|
设为首页
|
加入收藏夹
您好,欢迎光临本网站!
[请登录]
!
[注册会员]
!
首页
移动开发
云计算
大数据
数据库
游戏开发
人工智能
网络技术
区块链
操作系统
模糊查询
热门搜索:
源码
Android
整站
插件
识别
p2p
游戏
算法
更多...
在线客服QQ:632832888
当前位置:
资源下载
搜索资源 - 分词库
下载资源分类
移动开发
开发技术
课程资源
网络技术
操作系统
安全技术
数据库
行业
服务器应用
存储
信息化
考试认证
云计算
大数据
跨平台
音视频
游戏开发
人工智能
区块链
在结果中搜索
所属系统
Windows
Linux
FreeBSD
Unix
Dos
PalmOS
WinCE
SymbianOS
MacOS
Android
开发平台
Visual C
Visual.Net
Borland C
CBuilder
Dephi
gcc
VBA
LISP
IDL
VHDL
Matlab
MathCAD
Flash
Xcode
Android STU
LabVIEW
开发语言
C/C++
Pascal
ASM
Java
PHP
Basic/ASP
Perl
Python
VBScript
JavaScript
SQL
FoxBase
SHELL
E语言
OC/Swift
文件类型
源码
程序
CHM
PDF
PPT
WORD
Excel
Access
HTML
Text
资源分类
搜索资源列表
php 中文分词程序
包含中文分词程序 与中文分词库 配置方法请看官方网站
所属分类:
PHP
发布日期:2009-06-24
文件大小:3145728
提供者:
tangdayun
IKAnalyzer1.4分词
IKAnalyzer是一个基于Lucene的中文分词库,最新V1.4版的改进包括 1.修订特定情况下数量词切分造成指针越界异常的 BUG 2.进一步优化算法效率 3.优化词典 4.对英文和数词进行分割处理 IKAnalyzer基于lucene2.0版本API开发,实现了以词典分词为基础的正反向全切分算法,是Lucene Analyzer接口的实现
所属分类:
其它
发布日期:2009-07-04
文件大小:868352
提供者:
sxd147635549
织梦智能分词完整版程序下载
织梦智能分词完整版 带智能分词库 可以单独运行,是一个非常好的分词程序
所属分类:
专业指导
发布日期:2009-10-09
文件大小:677888
提供者:
gshooo
基于分词的地址匹配技术
本文提出了一种“基于分词的地址匹配技术”,它是通过构造一种分级地址库的方法, 并转换成地址分词库,采用基于地址词典的中文分词技术,实现地址匹配。采用这种方法, 易于维护修改地址库,并构建一个可自学习的地址库,不断丰富完善,提高匹配范围与匹配 精度。
所属分类:
专业指导
发布日期:2010-07-02
文件大小:1048576
提供者:
chensiyi1228
中文分词库ICTCLAS最新版
中科院中文分词库ICTCLAS,最新版。 除中文分词之外,还有词性标注的功能
所属分类:
C/C++
发布日期:2011-05-09
文件大小:8388608
提供者:
where_i_am
简易中文分词服务器
中英文混合分词服务器3.0正式发布,绝对稳定高效,分词库扩大到了190多万词汇,算法做了全面修正,稳定性、健壮性、速度都有了质的飞跃!同时提供c、java、C#、delphi、js调用范例 支持大规模并发,线程安全、5万字以内的文章但线程切分1秒内可以切分完毕!
所属分类:
其它
发布日期:2012-03-17
文件大小:6291456
提供者:
max09601
IKAnalyzer3.2.8.jar+jar包+分词库
IKAnalyzer3.2.8.jar+jar包+分词库 lucene3.5 jar 包
所属分类:
Java
发布日期:2012-05-10
文件大小:1048576
提供者:
yjflinchong
中文分词词库
使用中文分词的基准库 方便采用机械分词差分词库和搜索引擎使用 还使用在广告精确定投、推进引擎上
所属分类:
其它
发布日期:2012-05-30
文件大小:949248
提供者:
kamilzhang
常用中文分词库
词库文件,适合配合中文分词,例如庖丁解牛
所属分类:
其它
发布日期:2012-12-26
文件大小:1048576
提供者:
zheng198212
百度分词库
百度分词库,仅供参考。未考证。。。。。,用作搜索
所属分类:
互联网
发布日期:2013-07-02
文件大小:794624
提供者:
u011279144
IKAnalyzer3.2.8.jar+jar包+分词库免积分
IKAnalyzer3.2.8.jar+jar包+分词库。jar包内涵词库 在dic里
所属分类:
Java
发布日期:2014-06-03
文件大小:1048576
提供者:
caiyiwei920
php中文分词库
是一个基于php的中文分词库,很好用的一个中文分词词库,不需要任何的插件支持,直接引入就可以使用。
所属分类:
PHP
发布日期:2014-06-17
文件大小:10485760
提供者:
qq_15346065
php 中文分词库
一个方便的php 中文分词库,可以方便的在进行中文模糊查询的时候使用。
所属分类:
PHP
发布日期:2015-06-22
文件大小:7340032
提供者:
bai12345633
slor动态刷新分词库
采用servlet的方式对分词库进行动态更新,请求servlet对分词库进行修改
所属分类:
Java
发布日期:2018-07-04
文件大小:2048
提供者:
ylf1056157271
Python中文分词库Yaha.zip
"哑哈"中文分词,更快或更准确,由你来定义。通过简单定制,让分词模块更适用于你的需求。 "Yaha" You can custom your Chinese Word Segmentation efficiently by using Yaha 基本功能: 精确模式,将句子切成最合理的词。 全模式,所有的可能词都被切成词,不消除歧义。 搜索引擎模式,在精确的基础上再次驿长词进行切分,提高召回率,适合搜索引擎创建索引。 备选路径,可生成最好的多条切词路径,可在此
所属分类:
其它
发布日期:2019-07-16
文件大小:6291456
提供者:
weixin_39841856
中文分词库数据.rar(包含access,sql,xlsx各一份)
15W以上中文词库,可用于 信息检索 搜索引擎 分词 中文分词库数据.rar(包含access,sql,xlsx各一份)
所属分类:
其它
发布日期:2020-08-22
文件大小:6291456
提供者:
qiaoshuai0920
Python中文分词库jieba,pkusegwg性能准确度比较
主要介绍了Python中文分词库jieba,pkusegwg性能准确度比较,需要的朋友可以参考下
所属分类:
其它
发布日期:2020-09-17
文件大小:549888
提供者:
weixin_38744803
python中文分词库jieba使用方法详解
主要介绍了python中文分词库jieba使用方法详解,需要的朋友可以参考下
所属分类:
其它
发布日期:2020-09-17
文件大小:104448
提供者:
weixin_38589795
Python中文分词库jieba,pkusegwg性能准确度比较
中文分词(Chinese Word Segmentation),将中文语句切割成单独的词组。英文使用空格来分开每个单词的,而中文单独一个汉字跟词有时候完全不是同个含义,因此,中文分词相比英文分词难度高很多。 分词主要用于NLP 自然语言处理(Natural Language Processing),使用场景有: 搜索优化,关键词提取(百度指数) 语义分析,智能问答系统(客服系统) 非结构化文本媒体内容,如社交信息(微博热榜) 文本聚类,根据内容生成分类(行业分类) Python的
所属分类:
其它
发布日期:2020-12-20
文件大小:655360
提供者:
weixin_38717031
python中文分词库jieba使用方法详解
安装python中文分词库jieba 法1:Anaconda Prompt下输入conda install jieba 法2:Terminal下输入pip3 install jieba 1、分词 1.1、CUT函数简介 cut(sentence, cut_all=False, HMM=True) 返回生成器,遍历生成器即可获得分词的结果 lcut(sentence) 返回分词列表 import jieba sentence = '我爱自然语言处理' # 创建【Tokenizer.cut 生成器
所属分类:
其它
发布日期:2021-01-20
文件大小:107520
提供者:
weixin_38707356
«
1
2
3
4
5
6
7
8
9
10
...
47
»