点数信息
www.dssz.net
注册会员
|
设为首页
|
加入收藏夹
您好,欢迎光临本网站!
[请登录]
!
[注册会员]
!
首页
移动开发
云计算
大数据
数据库
游戏开发
人工智能
网络技术
区块链
操作系统
模糊查询
热门搜索:
源码
Android
整站
插件
识别
p2p
游戏
算法
更多...
在线客服QQ:632832888
当前位置:
资源下载
搜索资源 - 分词查询
下载资源分类
移动开发
开发技术
课程资源
网络技术
操作系统
安全技术
数据库
行业
服务器应用
存储
信息化
考试认证
云计算
大数据
跨平台
音视频
游戏开发
人工智能
区块链
在结果中搜索
所属系统
Windows
Linux
FreeBSD
Unix
Dos
PalmOS
WinCE
SymbianOS
MacOS
Android
开发平台
Visual C
Visual.Net
Borland C
CBuilder
Dephi
gcc
VBA
LISP
IDL
VHDL
Matlab
MathCAD
Flash
Xcode
Android STU
LabVIEW
开发语言
C/C++
Pascal
ASM
Java
PHP
Basic/ASP
Perl
Python
VBScript
JavaScript
SQL
FoxBase
SHELL
E语言
OC/Swift
文件类型
源码
程序
CHM
PDF
PPT
WORD
Excel
Access
HTML
Text
资源分类
搜索资源列表
Lucene分词查询
非常珍贵的Lucene入门实例,让你在最短时间内掌握Lucene快速创建索引,中文分词查询的技巧。 内赠送lucene驱动包,物超所值哦!!
所属分类:
Java
发布日期:2009-07-15
文件大小:606208
提供者:
zepqxjava
IKAnalyzer 3.0 中文分词器
1.IKAnalyzer3.0介绍 IKAnalyzer是一个开源的,基于java语言开发的轻量级的中文分词工具包。从2006年12月推出1.0版开始,IKAnalyzer 已经推出了3个大版本。最初,它是以开源项目Luence为应用主体的,结合词典分词和文法分析算法的中文分词组件。新版本的IKAnalyzer3.0 则发展为面向Java的公用分词组件,独立于Lucene项目,同时提供了对Lucene的默认优化实现。 1.2IKAnalyzer3.0特性 * 采用了特有的“正向迭代最细粒度切分
所属分类:
其它
发布日期:2009-07-21
文件大小:1048576
提供者:
linliangyi2006
csw5.0中文分词组件
一、CSW中分词组件简介 CSW中文分词组件,是一套可自动将一段文本按常规汉语词组进行拆分,并以指定方式进行分隔的COM组件。本组件采用独有的高效的分词引擎及拆分算法,具有准确、高速、资源占用率小等特点。为了满足客户对文本语义进行研究分析的需要,本组件同时提供词性及词频标注功能,可根据用户要求,对其拆分后的词组进行词性标注或词频标注。互联网信息检索、数据库信息查询、智能聊天机器人、文本校对、自动翻译、 自动摘要、自动分类及信息加工处理等各个领域。 二、本组件特点: 1.适应性强 本组全部件采用
所属分类:
C#
发布日期:2009-09-01
文件大小:3145728
提供者:
madl_lxj_163
ACWPS(爱博汉语分词系统)分词组件 asp分词组件
爱博汉语分词系统Web服务器支持标准的HTTP协议,可以跨平台调用,支持分布式运算; 爱博汉语分词系统COM组件提供COM和DLL接口(Windows环境) 以及共享库.so(Linux)形式,可支持所有支持COM接口调用的编程语言及脚本语言。 如:PHP、JSP、ASP、ASP.net、C/C++ 、VC6.0 、VC.net、BC、C#、VB6.0 、VB.net、Delphi、Java等。 爱博汉语分词系统支持自定义词语的功能,用户可根据自己需要定义添加汉语词组。 可根据需要自行定义影响
所属分类:
C#
发布日期:2010-02-28
文件大小:2097152
提供者:
selectersky
非常好用的中文分词,直接能用
目前的搜索引擎,大多是基于一种称为倒排索引的结构[1]。以什么做为索引的Key值,直接影响到整个搜索引擎的准确度、召回率[2]、速度。我们先看看不使用中文分词的情况。 如果不使用中文分词,可以采用单个汉字索引方式。例如,雅虎,先索引'雅'字,然后再索引'虎'字。同样,对于一篇文章,先把所有的汉字都单独索引一次,并记录他们的位置。搜索过程中,也是先找'雅'字的所有文档,再找'虎'字的所有文档,然后做交叉'与'运算,即包含这两个字,而且位置连续的文档才会做为符合要求的结果。这种方式是最基本的索引方
所属分类:
其它
发布日期:2010-03-06
文件大小:4194304
提供者:
pkuluck
基于分词的地址匹配技术(PDF清晰)
基于分词的地址匹配技术:根据调查显示,城市信息80%都与地理位置有关,而这些信息中大部分却没有空间坐标,自然无法整合,无法进行控件分析。为了快速的推进数字化城市的建设和发展,有必要找到一种快速,高效的方法,将大量的与地理位置相关的信息,进行坐标编码,以便于GIS系统分析,查询。本文提出了一种基于分词的地理匹配技术,他将大量的非空间信息高效的转化为空间信息,极大提高非空间信息数据的编码,录入效率。
所属分类:
专业指导
发布日期:2010-03-11
文件大小:1048576
提供者:
nextel
中文自动分词&全文检索@统计工具(GBK版
本系统具备中文自动分词、全文检索、统计等基本功能,具体介绍如下: 1、中文自动分词 1)能对给定的中文文本进行自动分词、词性一级、词性二级标注; 2)支持大批量文本的自动分词及词性标注处理,可处理各级子文件夹下的文件; 3)能根据待分词及标注文本的类别,加挂用户自定义词典,进一步提高分词和标注的精确度; 4)用户可对系统词典进行扩展,可添加、删除、查看系统词典,可将系统词典输出为TXT文本编辑后再转换为系统用的电子词典; 5)支持人名、地名、机构名等未登录词识别,支持基于GBK字符集的简、繁体
所属分类:
专业指导
发布日期:2010-04-22
文件大小:3145728
提供者:
lonewar
灵柩软件 可用于汉语分词处理
LJParser文本搜索与挖掘开发平台的十大功能: 1. 全文精准检索 支持文本、数字、日期、字符串等各种数据类型,多字段的高效搜索,支持AND/OR/NOT以及NEAR邻近等查询语法,支持维语、藏语、蒙语、阿拉伯、韩语等多种少数民族语言的检索。可以无缝地与现有文本处理系统与数据库系统融合。 2. 新词发现: 从文件集合中挖掘出内涵的新词语列表,可以用于用户专业词典的编撰;还可以进一步编辑标注,导入分词词典中,从而提高分词系统的准确度,并适应新的语言变化。 3. 分词标注: 对原始语料进行分词
所属分类:
Web开发
发布日期:2010-11-05
文件大小:688128
提供者:
zhangguoqiang52
ppldic.csv分词词库PHP应用——提取内容关键字
用RMM分词算法可以实现,调用“ppldic.csv”中英文词库。在分词过程中要过滤掉 标点符号,否则,这些标点符号都将分成一个词,而这些词并不是用户查询搜索的关键内容。
所属分类:
PHP
发布日期:2010-12-20
文件大小:25600
提供者:
a738611
Lucene分词与查询详解
Lucene分词与查询详解。这是一个完整的实例,希望对大家的开发学习有帮助!!!
所属分类:
Java
发布日期:2011-11-25
文件大小:55296
提供者:
sbvfhp
ppldic.csv 分词
用RMM分词算法可以实现,调用“ppldic.csv”中英文词库。在分词过程中要过滤掉 标点符号,否则,这些标点符号都将分成一个词,而这些词并不是用户查询搜索的关键内容。
所属分类:
PHP
发布日期:2012-05-08
文件大小:25600
提供者:
rj06204
lucene实例(中文分词)
lucene实例是一个比较详细的例子,包括lucene的入门到高级实例,代码里有比较详细的实例,所有的实例都是通过junit来测试的。实例包括各种搜索:如通配符查询、模糊查询、查询结果的分页、中文分词器、自定义分词器等
所属分类:
Java
发布日期:2013-01-04
文件大小:1048576
提供者:
guoyiqi
SQL分词查询存储过程
SQL分词查询存储过程,很简单的代码,感兴趣的朋友可以下载看看!
所属分类:
SQLServer
发布日期:2013-03-02
文件大小:1024
提供者:
noksharp
SharpICTCLAS分词系统 1.0
SharpICTCLAS分词系统 1.0 类似百度搜索分词,可用于模糊查询
所属分类:
C#
发布日期:2013-05-28
文件大小:3145728
提供者:
guobinxian
lukeall-3.5.0 加入IK分词器
luke-all是查询lucense生成索引文件的工具,加入IK分词器,更好的支持中文查询
所属分类:
Java
发布日期:2013-05-31
文件大小:8388608
提供者:
miludedeng
lukeall-3.5.0 加 IK分词器
luke-all是查询lucense生成索引文件的工具,加入IK分词器,更好的支持中文查询
所属分类:
Java
发布日期:2013-06-09
文件大小:8388608
提供者:
myvenus
lucene+中文IK分词器 例子
lucene3.5 + ik中文分词器例子,可从网页抓取输出流,并通过关键字查询相关文件
所属分类:
Java
发布日期:2014-06-26
文件大小:3145728
提供者:
mxd_001
Lucene.net增删改查示例,使用多索引和盘古分词等方法,并实现分页查询
这是一个Lucene.net的多索引示例,以数据库的动态数据为数据源,每个表对应一个索引,使用了盘古分词方法,适用于中文的分词,并且实现了增删改查的所有功能。 同时,在查询索引时,适用了分页方法,可直接引用到项目中使用。 无需修改即可运行,代码有明确的注释,一看就懂。
所属分类:
C#
发布日期:2014-10-21
文件大小:3145728
提供者:
atm_rmb
中文分词工具word-1.0,Java实现的中文分词组件多种基于词典的分词算法
word分词是一个Java实现的中文分词组件,提供了多种基于词典的分词算法,并利用ngram模型来消除歧义。 能准确识别英文、数字,以及日期、时间等数量词,能识别人名、地名、组织机构名等未登录词。 同时提供了Lucene、Solr、ElasticSearch插件。 分词使用方法: 1、快速体验 运行项目根目录下的脚本demo-word.bat可以快速体验分词效果 用法: command [text] [input] [output] 命令command的可选值为:demo、text、file
所属分类:
Java
发布日期:2014-11-05
文件大小:10485760
提供者:
love_hachi
solr在SSM框架中使用(支持中文分词查询)
这个项目是solr在SSM框架中的使用,实现了在solr中增删改查操作,支持中文分词搜索,高亮显示查询内容,点击查询,描述条件处输入内容进行查询,可以测试中文分词功能。
所属分类:
Java
发布日期:2017-10-23
文件大小:30408704
提供者:
qq_23026673
«
1
2
3
4
5
6
7
8
9
10
...
17
»