点数信息
www.dssz.net
注册会员
|
设为首页
|
加入收藏夹
您好,欢迎光临本网站!
[请登录]
!
[注册会员]
!
首页
移动开发
云计算
大数据
数据库
游戏开发
人工智能
网络技术
区块链
操作系统
模糊查询
热门搜索:
源码
Android
整站
插件
识别
p2p
游戏
算法
更多...
在线客服QQ:632832888
当前位置:
资源下载
搜索资源 - 中文搜索地名
下载资源分类
移动开发
开发技术
课程资源
网络技术
操作系统
安全技术
数据库
行业
服务器应用
存储
信息化
考试认证
云计算
大数据
跨平台
音视频
游戏开发
人工智能
区块链
在结果中搜索
所属系统
Windows
Linux
FreeBSD
Unix
Dos
PalmOS
WinCE
SymbianOS
MacOS
Android
开发平台
Visual C
Visual.Net
Borland C
CBuilder
Dephi
gcc
VBA
LISP
IDL
VHDL
Matlab
MathCAD
Flash
Xcode
Android STU
LabVIEW
开发语言
C/C++
Pascal
ASM
Java
PHP
Basic/ASP
Perl
Python
VBScript
JavaScript
SQL
FoxBase
SHELL
E语言
OC/Swift
文件类型
源码
程序
CHM
PDF
PPT
WORD
Excel
Access
HTML
Text
资源分类
搜索资源列表
Lucene中文分词器包
来自“猎图网 www.richmap.cn”基于IKAnalyzer分词算法的准商业化Lucene中文分词器。1. 正向全切分算法,42万汉字字符/每秒的处理能力(IBM ThinkPad 酷睿I 1.6G 1G内存 WinXP)2. 对数量词、地名、路名的优化处理3. 对未知词汇采用自识别结合二元切分算法,确保搜索召回率(使用方法请参考IKAnalyzer V1.1版)
所属分类:
其它
发布日期:2007-08-14
文件大小:873472
提供者:
linliangyi2006
IKAnalyzer 3.0 中文分词器
1.IKAnalyzer3.0介绍 IKAnalyzer是一个开源的,基于java语言开发的轻量级的中文分词工具包。从2006年12月推出1.0版开始,IKAnalyzer 已经推出了3个大版本。最初,它是以开源项目Luence为应用主体的,结合词典分词和文法分析算法的中文分词组件。新版本的IKAnalyzer3.0 则发展为面向Java的公用分词组件,独立于Lucene项目,同时提供了对Lucene的默认优化实现。 1.2IKAnalyzer3.0特性 * 采用了特有的“正向迭代最细粒度切分
所属分类:
其它
发布日期:2009-07-21
文件大小:1048576
提供者:
linliangyi2006
csw5.0中文分词组件
一、CSW中分词组件简介 CSW中文分词组件,是一套可自动将一段文本按常规汉语词组进行拆分,并以指定方式进行分隔的COM组件。本组件采用独有的高效的分词引擎及拆分算法,具有准确、高速、资源占用率小等特点。为了满足客户对文本语义进行研究分析的需要,本组件同时提供词性及词频标注功能,可根据用户要求,对其拆分后的词组进行词性标注或词频标注。互联网信息检索、数据库信息查询、智能聊天机器人、文本校对、自动翻译、 自动摘要、自动分类及信息加工处理等各个领域。 二、本组件特点: 1.适应性强 本组全部件采用
所属分类:
C#
发布日期:2009-09-01
文件大小:3145728
提供者:
madl_lxj_163
IKAnalyzer3.1.2GA_AllInOne
IKAnalyzer是一个开源的,基于java语言开发的轻量级的中文分词工具包。从2006年12月推出1.0版开始,IKAnalyzer已经推出了3个大版本。最初,它是以开源项目Luence为应用主体的,结合词典分词和文法分析算法的中文分词组件。新版本的IKAnalyzer3.0则发展为面向Java的公用分词组件,独立于Lucene项目,同时提供了对Lucene的默认优化实现。 IKAnalyzer3.0特性: 采用了特有的“正向迭代最细粒度切分算法“,具有50万字/秒的高速处理能力。 采用了
所属分类:
其它
发布日期:2009-09-15
文件大小:1048576
提供者:
johney521
lucene分词测试代码
用java写的图形分词测试的小东西,用的分词器是:来自“猎图网 www.richmap.cn”基于IKAnalyzer分词算法的准商业化Lucene中文分词器,其使用“正向全切分算法”,42万汉字字符/每秒的处理能力(IBM ThinkPad 酷睿I 1.6G 1G内存 WinXP),对数量词、地名、路名的优化处理,对未知词汇采用自识别结合二元切分算法,确保搜索召回率。但是没有源代码下载,只能联系作者索要。
所属分类:
其它
发布日期:2007-11-21
文件大小:2097152
提供者:
robinfoxnan
ACWPS(爱博汉语分词系统)分词组件 asp分词组件
爱博汉语分词系统Web服务器支持标准的HTTP协议,可以跨平台调用,支持分布式运算; 爱博汉语分词系统COM组件提供COM和DLL接口(Windows环境) 以及共享库.so(Linux)形式,可支持所有支持COM接口调用的编程语言及脚本语言。 如:PHP、JSP、ASP、ASP.net、C/C++ 、VC6.0 、VC.net、BC、C#、VB6.0 、VB.net、Delphi、Java等。 爱博汉语分词系统支持自定义词语的功能,用户可根据自己需要定义添加汉语词组。 可根据需要自行定义影响
所属分类:
C#
发布日期:2010-02-28
文件大小:2097152
提供者:
selectersky
IKAnalyzer中文分词器
基于IKAnalyzer分词算法的准商业化Lucene中文分词器。1. 正向全切分算法2. 对数量词、地名、路名的优化处理3. 对未知词汇采用自识别结合二元切分算法,确保搜索召回率(使用方法请参考IKAnalyzer V1.1版)
所属分类:
其它
发布日期:2008-04-12
文件大小:873472
提供者:
silyt
IKAnalyzer中文分词器V3.2.X使用手册
采用了特有的“正向迭代最细粒度切分算法“,具有60万字/秒的高速处理能力。 采用了多子处理器分析模式,支持:英文字母(IP地址、Email、URL)、数字(日期,常用中文数量词,罗马数字,科学计数法),中文词汇(姓名、地名处理)等分词处理。 优化的词典存储,更小的内存占用。支持用户词典扩展定义 针对Lucene全文检索优化的查询分析器IKQueryParser(作者吐血推荐);采用歧义分析算法优化查询关键字的搜索排列组合,能极大的提高Lucene检索的命中率。
所属分类:
Java
发布日期:2011-08-03
文件大小:500736
提供者:
feiyu84
IKAnalyzer中文分词器V2012使用手册
采用了特有的“正向迭代最细粒度切分算法“,具有60万字/秒的高速处理能力。 采用了多子处理器分析模式,支持:英文字母(IP地址、Email、URL)、数字(日期,常用中文数量词,罗马数字,科学计数法),中文词汇(姓名、地名处理)等分词处理。 优化的词典存储,更小的内存占用。支持用户词典扩展定义 针对Lucene全文检索优化的查询分析器IKQueryParser(作者吐血推荐);采用歧义分析算法优化查询关键字的搜索排列组合,能极大的提高Lucene检索的命中率。
所属分类:
Java
发布日期:2012-03-13
文件大小:847872
提供者:
mailjava
Google谷歌拼音输入法 1.0.17.0
智能组句 谷歌拼音输入法的智能组句功能能聪明地理解您的意图。不论是简短会话聊天还是长篇文书撰写,您都将彻底告别以单词为基本单位的繁琐输入步骤。智能化的组句功能大大降低了您的选词时间,提升选词准确率,有效协助您增加工作效率,沟通更加顺畅。 流行词汇 借助丰富、强大的网络搜索资源,谷歌拼音输入法将互联网上的流行词汇、热门搜索词一网打尽。从“超女”李宇春、“型男”师洋,到八荣八耻、新长征路,流行词汇应有尽有,词库定时更新,让您事半功倍地轻松输入。 智能纠错 匆忙的拼写当中小错误难以避免,对于常见的输
所属分类:
网络基础
发布日期:2007-04-10
文件大小:9437184
提供者:
chenxhcc
中文搜索地名
切记打开Beauty.xcworkspace 运行项目 自定义的UITabBarController,Xcode6 用storyboard连线 用CocoaPods管理: AFN&FMDB&SDWebimage 1、view1controller.h 用fmdb写的 注册登陆 2、View4Controller.h 可增加编辑的通讯录 文件夹addressNumber 3、SettingViewController.h 点个人资料进入MyViewController.h 我的生日,显示的是当前
所属分类:
iOS
发布日期:2014-11-21
文件大小:1048576
提供者:
doujiangchen
IOS搜索地名星座
Xcode6 storyboard 输入几月几日可得 星座 输入首字母可得 地名 搜索,索引 UISearchBar UISearchDisplayController
所属分类:
iOS
发布日期:2014-11-21
文件大小:163840
提供者:
doujiangchen
IKAnalyzer2.0.2OBF.jar (
中文分词,IKAnalyzer基于lucene2.0版本API开发,实现了以词典分词为基础的正反向全切分算法,是Lucene Analyzer接口的实现 性能与特性: 1. 正向全切分算法,42万汉字字符/每秒的处理能力(IBM ThinkPad 酷睿I 1.6G 1G内存 WinXP) 2. 对数量词、地名、路名的优化处理 3. 对未知词汇采用自识别结合二元切分算法,确保搜索召回率
所属分类:
其它
发布日期:2009-03-02
文件大小:884736
提供者:
qq_21404771
中文分词学习版
此为学习版,请勿用于商业用途或扩散。 以下描述转至互联网。 ============== 一、CSW中分词组件简介 CSW中文分词组件,是一套可自动将一段文本按常规汉语词组进行拆分,并以指定方式进行分隔的COM组件。本组件采用独有的高效的分词引擎及拆分算法,具有准确、高速、资源占用率小等特点。为了满足客户对文本语义进行研究分析的需要,本组件同时提供词性及词频标注功能,可根据用户要求,对其拆分后的词组进行词性标注或词频标注。互联网信息检索、数据库信息查询、智能聊天机器人、文本校对、自动翻译、 自
所属分类:
机器学习
发布日期:2018-10-11
文件大小:1048576
提供者:
weixin_43387663
明仔中文网ASP手机交友程序 1.0.rar
明仔中文网ASP手机交友程序,改改就能用 支持微信访问和UC9。0访问 也可以电脑访问 1首页有几个连接要改 首页地址ssindex.asp 2传照片要上传到服务器 3在就是改搜索页面和注册页面的地名 4在就是用户详细资料也面要改一下 太大了 后台路径:/admin/index.asp 管理员:whzyjsxy 密码:111985426 后台还没有修改基本功能都有,自己删除多余的即可 联系QQ279999471 明仔中文网
所属分类:
其它
发布日期:2019-05-23
文件大小:1048576
提供者:
weixin_39841882
Android代码-Java 实现的自然语言处理中文分词
HanLP: Han Language Processing 汉语言处理包 HanLP是一系列模型与算法组成的NLP工具包,由大快搜索主导并完全开源,目标是普及自然语言处理在生产环境中的应用。HanLP具备功能完善、性能高效、架构清晰、语料时新、可自定义的特点。 HanLP提供下列功能: 中文分词 HMM-Bigram(速度与精度最佳平衡;一百兆内存) 最短路分词、N-最短路分词 由字构词(侧重精度,全世界最大语料库,可识别新词;适合NLP任务) 感知机分词、CRF分词 词典分词(侧重速度,每
所属分类:
其它
发布日期:2019-08-06
文件大小:22020096
提供者:
weixin_39840924
ftserver全文搜索服务器 v0.9.zip
ftserver全文搜索服务器简介 ftserver是一个轻量全文搜索服务器,具有中英文两套文字处理规则,无需切割中文为单词,可以支持中文字的任意排列,完全索引,不依赖词库,直接搜索网络新词、古代地名、用户昵称。可以把搜索引擎整合到各类应用程序中,也可以作为微服务应用独立运行,比同类产品更容易按需定制,直接编译就可以使用,无需额外配置。 ftserve 0.9 更新日志: 2016-10-09短语搜索改进。 支持English、简体中文、正體中文、日本語、???、Русский、Deuts
所属分类:
其它
发布日期:2019-07-03
文件大小:2097152
提供者:
weixin_39840914
ftserver全文搜索服务器 0.9.zip
ftserver是一个轻量全文搜索服务器,具有中英文两套文字处理规则,无需切割中文为单词,可以支持中文字的任意排列,完全索引,不依赖词库,直接搜索网络新词、古代地名、用户昵称。可以把搜索引擎整合到各类应用程序中,也可以作为微服务应用独立运行,比同类产品更容易按需定制,直接编译就可以使用,无需额外配置。ftserve 0.9 更新日志:2016-10-09短语搜索改进。 支持English、简体中文、正體中文、日本語、한국어、Русский、Deutsch...,支持多语言混合搜索。
所属分类:
其它
发布日期:2019-05-25
文件大小:2097152
提供者:
weixin_39841856
jcseg:Jcseg是用Java开发的轻量级NLP框架。 提供基于MMSEG算法的CJK和英语细分,并基于TEXTRANK算法实现关键词提取,关键句提取,摘要提取。 Jcseg具有内置的http服务器和用于最新lucene,solr,el
Jcseg是什么? Jcseg是基于mmseg算法的一个轻量级中文分词器,同时集成了关键字提取,关键在于提取,关键句提取和文章自动摘要等功能,并提供了一个基于Jetty的web服务器,方便各大语言直接Jcseg自带了一个jcseg.properties文件用于快速配置而得到适合不同场合的分词应用,例如:最大匹配词长,是否开启中文人名识别,是否追加拼音,是否追加名词等! Jcseg核心功能: 中文分词:mmseg算法+ Jcseg独创的优化算法,七种切分模式。 关键字提取:基于textRank算
所属分类:
其它
发布日期:2021-02-03
文件大小:4194304
提供者:
weixin_42123296
php利用scws实现mysql全文搜索功能的方法
本文实例讲述了php利用scws实现mysql全文搜索功能的方法。分享给大家供大家参考。具体方法如下: scws这样的中文分词插件比较不错,简单的学习了一下,它包涵一些专有名称、人名、地名、数字年代等规则集合,可以直接将语句按这些规则分开成一个一个关键词,准确率在90%-95%之间,按照安装说明把scws的扩展放入php的扩展目录里,下载规则文件和词典文件,并在php配置文件中引用它们,就可以用scws进行分词了. 1) 修改 php 扩展代码以兼容支持 php 5.4.x 2) 修正 php
所属分类:
其它
发布日期:2021-01-20
文件大小:61440
提供者:
weixin_38565628
«
1
2
»