点数信息
www.dssz.net
注册会员
|
设为首页
|
加入收藏夹
您好,欢迎光临本网站!
[请登录]
!
[注册会员]
!
首页
移动开发
云计算
大数据
数据库
游戏开发
人工智能
网络技术
区块链
操作系统
模糊查询
热门搜索:
源码
Android
整站
插件
识别
p2p
游戏
算法
更多...
在线客服QQ:632832888
当前位置:
资源下载
搜索资源 - 中文分词搜索
下载资源分类
移动开发
开发技术
课程资源
网络技术
操作系统
安全技术
数据库
行业
服务器应用
存储
信息化
考试认证
云计算
大数据
跨平台
音视频
游戏开发
人工智能
区块链
在结果中搜索
所属系统
Windows
Linux
FreeBSD
Unix
Dos
PalmOS
WinCE
SymbianOS
MacOS
Android
开发平台
Visual C
Visual.Net
Borland C
CBuilder
Dephi
gcc
VBA
LISP
IDL
VHDL
Matlab
MathCAD
Flash
Xcode
Android STU
LabVIEW
开发语言
C/C++
Pascal
ASM
Java
PHP
Basic/ASP
Perl
Python
VBScript
JavaScript
SQL
FoxBase
SHELL
E语言
OC/Swift
文件类型
源码
程序
CHM
PDF
PPT
WORD
Excel
Access
HTML
Text
资源分类
搜索资源列表
Lucene中文分词器包
来自“猎图网 www.richmap.cn”基于IKAnalyzer分词算法的准商业化Lucene中文分词器。1. 正向全切分算法,42万汉字字符/每秒的处理能力(IBM ThinkPad 酷睿I 1.6G 1G内存 WinXP)2. 对数量词、地名、路名的优化处理3. 对未知词汇采用自识别结合二元切分算法,确保搜索召回率(使用方法请参考IKAnalyzer V1.1版)
所属分类:
其它
发布日期:2007-08-14
文件大小:873472
提供者:
linliangyi2006
IKAnalyzer 3.0 中文分词器
1.IKAnalyzer3.0介绍 IKAnalyzer是一个开源的,基于java语言开发的轻量级的中文分词工具包。从2006年12月推出1.0版开始,IKAnalyzer 已经推出了3个大版本。最初,它是以开源项目Luence为应用主体的,结合词典分词和文法分析算法的中文分词组件。新版本的IKAnalyzer3.0 则发展为面向Java的公用分词组件,独立于Lucene项目,同时提供了对Lucene的默认优化实现。 1.2IKAnalyzer3.0特性 * 采用了特有的“正向迭代最细粒度切分
所属分类:
其它
发布日期:2009-07-21
文件大小:1048576
提供者:
linliangyi2006
csw5.0中文分词组件
一、CSW中分词组件简介 CSW中文分词组件,是一套可自动将一段文本按常规汉语词组进行拆分,并以指定方式进行分隔的COM组件。本组件采用独有的高效的分词引擎及拆分算法,具有准确、高速、资源占用率小等特点。为了满足客户对文本语义进行研究分析的需要,本组件同时提供词性及词频标注功能,可根据用户要求,对其拆分后的词组进行词性标注或词频标注。互联网信息检索、数据库信息查询、智能聊天机器人、文本校对、自动翻译、 自动摘要、自动分类及信息加工处理等各个领域。 二、本组件特点: 1.适应性强 本组全部件采用
所属分类:
C#
发布日期:2009-09-01
文件大小:3145728
提供者:
madl_lxj_163
非常好用的中文分词,直接能用
目前的搜索引擎,大多是基于一种称为倒排索引的结构[1]。以什么做为索引的Key值,直接影响到整个搜索引擎的准确度、召回率[2]、速度。我们先看看不使用中文分词的情况。 如果不使用中文分词,可以采用单个汉字索引方式。例如,雅虎,先索引'雅'字,然后再索引'虎'字。同样,对于一篇文章,先把所有的汉字都单独索引一次,并记录他们的位置。搜索过程中,也是先找'雅'字的所有文档,再找'虎'字的所有文档,然后做交叉'与'运算,即包含这两个字,而且位置连续的文档才会做为符合要求的结果。这种方式是最基本的索引方
所属分类:
其它
发布日期:2010-03-06
文件大小:4194304
提供者:
pkuluck
中文分词小程序(可实现类似百度分词搜索)
对输入的汉字进行拆分,可实现类似百度分词搜索
所属分类:
C#
发布日期:2010-05-28
文件大小:1037312
提供者:
skyxioo
中文分词处理技术源代码
专业提供中文分词扩展和中文词库。使中文分词,全文搜索不再是难点,一个函数即完成分词。然后即可把分词后的结果存储,再使用sphinx,Lucene等进行索引搜索了。
所属分类:
其它
发布日期:2010-07-28
文件大小:507904
提供者:
y34ml
php 中文分词程序 分词算法
中文分词 php 分词 搜索引擎 搜索算法
所属分类:
其它
发布日期:2010-11-19
文件大小:3145728
提供者:
magic_zhaoxiaofeng
盘古中文分词.net源代码
盘古中文分词.net源代码,研究分词的朋友可以看看。
所属分类:
C#
发布日期:2011-02-23
文件大小:681984
提供者:
xhlyp3
IKAnalyzer中文分词器
基于IKAnalyzer分词算法的准商业化Lucene中文分词器。1. 正向全切分算法2. 对数量词、地名、路名的优化处理3. 对未知词汇采用自识别结合二元切分算法,确保搜索召回率(使用方法请参考IKAnalyzer V1.1版)
所属分类:
其它
发布日期:2008-04-12
文件大小:873472
提供者:
silyt
中文分词ChineseAnalyzer.rar
中文分词 有两个dll,分词词库,可运行代码, 使用方法举例: private void button1_Click(object sender, EventArgs e) { StringBuilder sb = new StringBuilder(); sb.Remove(0, sb.Length); string t1 = ""; int i = 0; Analyzer analyzer = new Lucene.China.ChineseAnalyzer(); StringReader
所属分类:
C#
发布日期:2011-07-31
文件大小:970752
提供者:
weiqj8686
lucene实例(中文分词)
lucene实例是一个比较详细的例子,包括lucene的入门到高级实例,代码里有比较详细的实例,所有的实例都是通过junit来测试的。实例包括各种搜索:如通配符查询、模糊查询、查询结果的分页、中文分词器、自定义分词器等
所属分类:
Java
发布日期:2013-01-04
文件大小:1048576
提供者:
guoyiqi
中文分词pscws,重新修改了核心代码
中文分词pscws,很出名的,我在原来的基础重新修改了核心代码,原来的分词有局限性,比如助词没去掉,分出来很多没用的单个字。商店名称没办法分出,变成都是单字的,比如:我佳牛排,分出的是:我 佳 牛排,而不是:我佳 牛排,这样导致全文索引搜索不准确。本代码已经做了修正。(有带Demo)
所属分类:
MySQL
发布日期:2013-02-26
文件大小:3145728
提供者:
zengzhenkun
中文分词搜索
完整的中文分词搜索 可以自己编译词典 扩展词典等 类百度搜索
所属分类:
网络基础
发布日期:2013-08-08
文件大小:2097152
提供者:
u011351049
搭建Sphinx+MySQL5.1x+SphinxSE+mmseg中文分词搜索引擎架构
搭建Sphinx+MySQL5.1x+SphinxSE+mmseg中文分词搜索引擎架构
所属分类:
Web开发
发布日期:2014-03-07
文件大小:175104
提供者:
liuvictory99
IK Analyzer 中文分词
用于Lucene全文搜索中的中文分词,IK Analyzer源码包
所属分类:
Java
发布日期:2014-11-06
文件大小:1048576
提供者:
qin34
中文分词搜索,商城搜索分词
做商城搜索,测试无误后上传,中文分词搜索,商城搜索分词,商城搜索
所属分类:
PHP
发布日期:2015-02-27
文件大小:7340032
提供者:
tongxingzhenghdj
中文分词搜索
C++编程中文分词搜索,课程设计报告
所属分类:
C/C++
发布日期:2016-12-10
文件大小:314368
提供者:
hamohamo
solr在SSM框架中使用(支持中文分词查询)
这个项目是solr在SSM框架中的使用,实现了在solr中增删改查操作,支持中文分词搜索,高亮显示查询内容,点击查询,描述条件处输入内容进行查询,可以测试中文分词功能。
所属分类:
Java
发布日期:2017-10-23
文件大小:30408704
提供者:
qq_23026673
php实现scws中文分词搜索的方法
主要介绍了php实现scws中文分词搜索的方法,详细介绍了scws中文分词搜索的具体步骤与相关使用技巧,并提供了scws的本站下载地址,需要的朋友可以参考下
所属分类:
其它
发布日期:2020-10-23
文件大小:48128
提供者:
weixin_38660579
php实现scws中文分词搜索的方法
本文实例讲述了php实现scws中文分词搜索的方法。分享给大家供大家参考,具体如下: 1、4个文件(本站下载地址。)解压后,放到一个地方 eg:E:/wamp/scws 2、php.ini 中配置 extension = php_scws.dll scws.default.charset = utf8 //配置默认的编码方式 scws.default.fpath = "E:/wamp/scws" //加压后文件的路径 3、使用 $so = scws_new(); $so->set_c
所属分类:
其它
发布日期:2020-12-19
文件大小:52224
提供者:
weixin_38552536
«
1
2
3
4
5
6
7
8
9
10
...
17
»