点数信息
www.dssz.net
注册会员
|
设为首页
|
加入收藏夹
您好,欢迎光临本网站!
[请登录]
!
[注册会员]
!
首页
移动开发
云计算
大数据
数据库
游戏开发
人工智能
网络技术
区块链
操作系统
模糊查询
热门搜索:
源码
Android
整站
插件
识别
p2p
游戏
算法
更多...
在线客服QQ:632832888
当前位置:
资源下载
搜索资源 - 中文分词组件
下载资源分类
移动开发
开发技术
课程资源
网络技术
操作系统
安全技术
数据库
行业
服务器应用
存储
信息化
考试认证
云计算
大数据
跨平台
音视频
游戏开发
人工智能
区块链
在结果中搜索
所属系统
Windows
Linux
FreeBSD
Unix
Dos
PalmOS
WinCE
SymbianOS
MacOS
Android
开发平台
Visual C
Visual.Net
Borland C
CBuilder
Dephi
gcc
VBA
LISP
IDL
VHDL
Matlab
MathCAD
Flash
Xcode
Android STU
LabVIEW
开发语言
C/C++
Pascal
ASM
Java
PHP
Basic/ASP
Perl
Python
VBScript
JavaScript
SQL
FoxBase
SHELL
E语言
OC/Swift
文件类型
源码
程序
CHM
PDF
PPT
WORD
Excel
Access
HTML
Text
资源分类
搜索资源列表
IKAnalyzer 3.0 中文分词器
1.IKAnalyzer3.0介绍 IKAnalyzer是一个开源的,基于java语言开发的轻量级的中文分词工具包。从2006年12月推出1.0版开始,IKAnalyzer 已经推出了3个大版本。最初,它是以开源项目Luence为应用主体的,结合词典分词和文法分析算法的中文分词组件。新版本的IKAnalyzer3.0 则发展为面向Java的公用分词组件,独立于Lucene项目,同时提供了对Lucene的默认优化实现。 1.2IKAnalyzer3.0特性 * 采用了特有的“正向迭代最细粒度切分
所属分类:
其它
发布日期:2009-07-21
文件大小:1048576
提供者:
linliangyi2006
csw5.0中文分词组件
一、CSW中分词组件简介 CSW中文分词组件,是一套可自动将一段文本按常规汉语词组进行拆分,并以指定方式进行分隔的COM组件。本组件采用独有的高效的分词引擎及拆分算法,具有准确、高速、资源占用率小等特点。为了满足客户对文本语义进行研究分析的需要,本组件同时提供词性及词频标注功能,可根据用户要求,对其拆分后的词组进行词性标注或词频标注。互联网信息检索、数据库信息查询、智能聊天机器人、文本校对、自动翻译、 自动摘要、自动分类及信息加工处理等各个领域。 二、本组件特点: 1.适应性强 本组全部件采用
所属分类:
C#
发布日期:2009-09-01
文件大小:3145728
提供者:
madl_lxj_163
CSW中文分词组件,在asp环境中使用的分词组件
CSW中文分词组件,在asp环境中使用的分词组件。
所属分类:
C#
发布日期:2010-01-12
文件大小:3145728
提供者:
qqcxw
CSW中文分词组件
CSW中文分词组件,搞搜索引擎研究的朋友值得一用啊
所属分类:
Java
发布日期:2008-01-02
文件大小:3145728
提供者:
huangwenqiang2
Lucene.Net中文分词组件 Lucene.Net.Analysis.Cn
Lucene.Net中文分词组件 Lucene.Net.Analysis.Cn
所属分类:
C#
发布日期:2010-10-08
文件大小:16384
提供者:
cheqiyolin
je-analyzer-1.5.3lucene中文分词组件
分词算法:正向最大匹配 + 词尾多重消歧 + 22万精选词典分词效率:每秒30万字(测试环境迅驰1.6,第一次分词需要1-2秒加载词典) 内存消耗:30M 支持分词粒度控制支持Lucene分词接口支持英文、数字、中文混合分词支持中文词典动态维护 支持中英文噪声词过滤 支持人名匹配 支持地名匹配 支持数量词匹配 支持中文数字匹配 支持日期时间匹配 支持电子邮件匹配 支持商品编码匹配
所属分类:
其它
发布日期:2008-04-14
文件大小:892928
提供者:
shylanse
IKAnalyzer中文分词好帮手
IK Analyzer 是一个开源的,基于java 语言开发的轻量级的中文分词工具包。从2006 年12 月推出1.0 版开始, IKAnalyzer 已经推出了3 个大版本。最初,它是以开源项目 Luence 为应用主体的,结合词典分词和文法分析算法的中文分词组件。新版本的IK Analyzer 3.0 则发展为面向Java 的公用分词组件,独立于Lucene 项目,同时提供了对 Lucene 的默认优化实现。
所属分类:
Java
发布日期:2011-06-20
文件大小:495616
提供者:
zfding2
lucene中文分词组件
给lucene提供中文分词功能
所属分类:
Java
发布日期:2008-05-08
文件大小:861184
提供者:
xiaofangwei
分词组件V2.3.1源码
分词组件V2.3.1源码 程序介绍: 盘古分词是一个中英文分词组件。作者eaglet 曾经开发过KTDictSeg 中文分词组件,拥有大量用户来自51ASPX。 作者基于之前分词组件的开发经验,结合最新的开发技术重新编写了盘古分词组件。 中文分词功能 中文未登录词识别 盘古分词可以对一些不在字典中的未登录词自动识别 词频优先 盘古分词可以根据词频来解决分词的歧义问题 多元分词 盘古分词提供多重输出解决分词粒度和分词精度权衡的问题 中文人名识别 输入: “张三说的确实在理” 分词结果:张三/说/
所属分类:
C#
发布日期:2012-05-23
文件大小:6291456
提供者:
ss_geng
DEDE中文分词组件PHP
DEDE的中文分词组件,PHP代码,可自定义词库
所属分类:
PHP
发布日期:2012-08-14
文件大小:683008
提供者:
czjim
ShootSearch 中文分词组件(c#开源)
ShootSearch 中文分词组件(c#开源) 技术支持:support@shootsoft.net http://www.shootsoft.net 分词算法:词库+最大匹配 词库来自www.jesoft.cn,已经过一定的修改 使用说明: 先加载词库,再进行分词.分词过程重载两次:支持回车的和不支持回车的,注意选择! 可以手动添加词语到sDict.txt,不过每次手动修改后需要调用SortDic()方法,否则无法实现最大匹配! sDict.txt的编码为UTF-8! 示例: 文字内容来自
所属分类:
C#
发布日期:2006-08-18
文件大小:1001472
提供者:
shootsoft
Solr4.3 版本中文分词组件
最高版本的 solr 中文分词配置 , 小弟已经测试过了 里面的 jar 要到各官网上下载
所属分类:
Java
发布日期:2013-07-09
文件大小:856
提供者:
lklkdawei
Lucene中文分词组件 JE-Analysis 1.5.1
发布于:http://www.jesoft.cn/posts/list/5.page 1.5.1 —— 2006-01-22 修正细粒度分词错误的问题 1.5.0 —— 2007-01-18 全面支持Lucene 2.0 增强了词典维护的API 增加了商品编码的匹配 增加了Mail地址的匹配 实现了词尾消歧算法第二层的过滤 整理优化了词库 1.4.0 —— 2006-08-21 增加词典的动态扩展能力 1.3.3 —— 2006-07-23 修正无法多次增加词典的问题 1.3.2 —— 200
所属分类:
其它
发布日期:2007-01-22
文件大小:891904
提供者:
diystar
Java中文分词组件word-1.0.rar
Java中文分词组件word-1.0.rar
所属分类:
Java
发布日期:2014-08-21
文件大小:10485760
提供者:
u011073939
中文分词工具word-1.0,Java实现的中文分词组件多种基于词典的分词算法
word分词是一个Java实现的中文分词组件,提供了多种基于词典的分词算法,并利用ngram模型来消除歧义。 能准确识别英文、数字,以及日期、时间等数量词,能识别人名、地名、组织机构名等未登录词。 同时提供了Lucene、Solr、ElasticSearch插件。 分词使用方法: 1、快速体验 运行项目根目录下的脚本demo-word.bat可以快速体验分词效果 用法: command [text] [input] [output] 命令command的可选值为:demo、text、file
所属分类:
Java
发布日期:2014-11-05
文件大小:10485760
提供者:
love_hachi
一个免费的中文分词组件
一个免费的中文分词组件,我也没有实际用过,共享一下,大家如果有用的还希望能够把经验共享一下哦
所属分类:
Java
发布日期:2008-10-31
文件大小:727040
提供者:
jinou624
IKAnalyzer最强的中文分词器
从2006年12月推出1.0版开始,IKAnalyzer已经推出 了3个大版本。最初,它是以开源项目Lucene为应用主体的,结合词典分词和文法分析算法的中文分词组件。新版本的IKAnalyzer3.0则发展为 面向Java的公用分词组件,独立于Lucene项目,同时提供了对Lucene的默认优化实现。
所属分类:
Java
发布日期:2016-01-26
文件大小:2097152
提供者:
ll327577416
Jieba0.35中文分词组件
Jieba是一个中文分词组件,可用于中文句子/词性分割、词性标注、未登录词识别,支持用户词典等功能。该组件的分词精度达到了97%以上。
所属分类:
Python
发布日期:2016-03-23
文件大小:7340032
提供者:
sanqima
CSW中文分词组件 5.0 (标准C++)
CSW中文分词组件 5.0 (标准C++)
所属分类:
其它
发布日期:2016-05-06
文件大小:7340032
提供者:
u013411813
中文分词组件(csw中文分词组件)
csw中文分词组件,测试过,可以用的。可以用于搜索引擎或是自然语言处理领域……
所属分类:
Java
发布日期:2009-04-13
文件大小:3145728
提供者:
u010556961
«
1
2
3
4
5
6
7
8
9
10
»