点数信息
www.dssz.net
注册会员
|
设为首页
|
加入收藏夹
您好,欢迎光临本网站!
[请登录]
!
[注册会员]
!
首页
移动开发
云计算
大数据
数据库
游戏开发
人工智能
网络技术
区块链
操作系统
模糊查询
热门搜索:
源码
Android
整站
插件
识别
p2p
游戏
算法
更多...
在线客服QQ:632832888
当前位置:
资源下载
搜索资源 - 中文分词
下载资源分类
移动开发
开发技术
课程资源
网络技术
操作系统
安全技术
数据库
行业
服务器应用
存储
信息化
考试认证
云计算
大数据
跨平台
音视频
游戏开发
人工智能
区块链
在结果中搜索
所属系统
Windows
Linux
FreeBSD
Unix
Dos
PalmOS
WinCE
SymbianOS
MacOS
Android
开发平台
Visual C
Visual.Net
Borland C
CBuilder
Dephi
gcc
VBA
LISP
IDL
VHDL
Matlab
MathCAD
Flash
Xcode
Android STU
LabVIEW
开发语言
C/C++
Pascal
ASM
Java
PHP
Basic/ASP
Perl
Python
VBScript
JavaScript
SQL
FoxBase
SHELL
E语言
OC/Swift
文件类型
源码
程序
CHM
PDF
PPT
WORD
Excel
Access
HTML
Text
资源分类
搜索资源列表
中文分词PPT
中文分词 ppt 牛*
所属分类:
Java
发布日期:2007-08-06
文件大小:525312
提供者:
dashgo
Lucene中文分词器包
来自“猎图网 www.richmap.cn”基于IKAnalyzer分词算法的准商业化Lucene中文分词器。1. 正向全切分算法,42万汉字字符/每秒的处理能力(IBM ThinkPad 酷睿I 1.6G 1G内存 WinXP)2. 对数量词、地名、路名的优化处理3. 对未知词汇采用自识别结合二元切分算法,确保搜索召回率(使用方法请参考IKAnalyzer V1.1版)
所属分类:
其它
发布日期:2007-08-14
文件大小:873472
提供者:
linliangyi2006
吕教授所改中文分词系统
开源中文分词系统,解决了中文分词的难题,c#语言
所属分类:
C#
发布日期:2009-04-30
文件大小:1048576
提供者:
egan_wang
中科院研发的中文分词程序,VC++/MFC
中科院研发的中文分词系统,运用MFC编写完成,可用
所属分类:
C++
发布日期:2009-05-08
文件大小:2097152
提供者:
wuduyouo
Lucene中文分词 庖丁解牛 2_0_0版
Paoding中文分词参考手册 本文档对应paoding-analysis 2.0.4–alpha2,目前还在草稿状态。 由于没有docbook编辑文档的经验和环境,暂时以word编辑文档。 目录 一般使用 使用评估 参考资料 下载 开始使用 分词策略 高级专题 配置参考 PaodingMaker的设计 庖丁架构 词典的抽象与设计 词典定制 词典动态加载 自定制分词策略 集成指南 Spring XML 配置 一般使用 使用评估 暂略 参考资料 ...展开收缩
所属分类:
Java
发布日期:2009-05-10
文件大小:5242880
提供者:
iMLuther
Lucene中文分词器包
此分词器包用于搜索引擎中文分词,与Lucene搜索引擎框架搭配使用。
所属分类:
Java
发布日期:2009-05-13
文件大小:873472
提供者:
Simonright
【分享:Lucene关于几种中文分词的总结 】--<下载不要分,回帖加1分,欢迎下载,童叟无欺>
Lucene关于几种中文分词的总结 目前最新版本的lucene自身提供的StandardAnalyzer已经具备中文分词的功能,但是不一定能够满足大多数应用的需要。 另外网友谈的比较多的中文分词器还有: CJKAnalyzer ChineseAnalyzer IK_CAnalyzer(MIK_CAnalyzer) 还有一些热心网友自己写的比较不错的分词器在此就不说了,有兴趣的可以自己研究研究。
所属分类:
Java
发布日期:2009-05-15
文件大小:36864
提供者:
Star_of_Java
强大的中文分词器,有使用案例
强大的中文分词器,有使用案例,不过占用交大的内存空间,可能需要在eclipse中设置一下jvm的堆大小,防止出现outofmemory错误。
所属分类:
专业指导
发布日期:2009-05-22
文件大小:2097152
提供者:
pope123
perl实现中文分词-双向扫描法找出歧义段-n元语法概率模型消歧
perl实现中文分词 先双向扫描法找出歧义段 再n元语法概率模型消歧 1998年人民日报语料下F1值达94%
所属分类:
Perl
发布日期:2009-05-27
文件大小:7168
提供者:
heycinderella
idf词频统计小巧中文分词词库
idf词频统计小巧中文分词词库 idf词频统计小巧中文分词词库
所属分类:
专业指导
发布日期:2009-05-31
文件大小:790528
提供者:
leo1314lll
MM2中文分词软件,可添加新词到词库中
中文分词软件,可以添加新词,适合初学者研究。
所属分类:
专业指导
发布日期:2009-06-14
文件大小:2097152
提供者:
orangelv
纯文本词典 中文分词 分词文本 文本词典
文本词典 中文分词 分词文本 纯文本词典 中文分词 分词文本 文本词典 信息检索
所属分类:
Java
发布日期:2009-06-15
文件大小:1048576
提供者:
behappy373
Yard中文分词系统V0.1.1版
Yard中文分词系统采用改进了的正向最大匹配算法,利用双字哈希进行词典组织解决了中文分词中最长词带来的分词效率低下问题。 本次发布的版本为0.1.1版能对中文词组进行完美的切分同时利用词组的词频和词性解决了歧义划分的问题,但是对人名、地名、组织名、英文、数字等还不能进行很好的切分,在下一个版本中将解决这些问题。中文词典应用了搜狗实验室提供的互联网词库。纯java编写源码和词典在附件中可以下载。本软件为开源软件你可以进行任何修改以适应你的需求,如果你加入了新功能请发送一份副本给我,我们一同完善改
所属分类:
其它
发布日期:2009-06-16
文件大小:1048576
提供者:
Soul_fly
php 中文分词程序
包含中文分词程序 与中文分词库 配置方法请看官方网站
所属分类:
PHP
发布日期:2009-06-24
文件大小:3145728
提供者:
tangdayun
net 中文分词程序 包含C# web测试源码
net 中文分词程序 包含C# web测试源码
所属分类:
Web开发
发布日期:2009-06-24
文件大小:1037312
提供者:
tangdayun
中文分词包ictclas4j
中文分词包ictclas4j 中文分词包ictclas4j
所属分类:
Java
发布日期:2009-06-24
文件大小:2097152
提供者:
buaacjl
一种中文分词词典新机制-双字哈希机制
一种中文分词词典新机制-双字哈希机制,中文分词算法
所属分类:
其它
发布日期:2009-06-29
文件大小:254976
提供者:
book_netframework
中文分词 庖丁解牛 2_0_0版本发布 - 企业应用
中文分词 庖丁解牛 2_0_0版本发布 - 企业应用 中文分词 庖丁解牛 2_0_0版本发布 - 企业应用
所属分类:
Java
发布日期:2009-07-19
文件大小:110592
提供者:
ruanpanliang
中文分词函数库CipSegSDK
采用visual c++开放的中文分词函数库,采用visual c++开放的中文分词函数库;
所属分类:
C++
发布日期:2009-07-21
文件大小:661504
提供者:
yeyanbin
IKAnalyzer 3.0 中文分词器
1.IKAnalyzer3.0介绍 IKAnalyzer是一个开源的,基于java语言开发的轻量级的中文分词工具包。从2006年12月推出1.0版开始,IKAnalyzer 已经推出了3个大版本。最初,它是以开源项目Luence为应用主体的,结合词典分词和文法分析算法的中文分词组件。新版本的IKAnalyzer3.0 则发展为面向Java的公用分词组件,独立于Lucene项目,同时提供了对Lucene的默认优化实现。 1.2IKAnalyzer3.0特性 * 采用了特有的“正向迭代最细粒度切分
所属分类:
其它
发布日期:2009-07-21
文件大小:1048576
提供者:
linliangyi2006
«
1
2
3
4
5
6
7
8
9
10
...
50
»