您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. Lucene中文分词器包

  2. 来自“猎图网 www.richmap.cn”基于IKAnalyzer分词算法的准商业化Lucene中文分词器。1. 正向全切分算法,42万汉字字符/每秒的处理能力(IBM ThinkPad 酷睿I 1.6G 1G内存 WinXP)2. 对数量词、地名、路名的优化处理3. 对未知词汇采用自识别结合二元切分算法,确保搜索召回率(使用方法请参考IKAnalyzer V1.1版)
  3. 所属分类:其它

    • 发布日期:2007-08-14
    • 文件大小:873472
    • 提供者:linliangyi2006
  1. IKAnalyzer 3.0 中文分词器

  2. 1.IKAnalyzer3.0介绍 IKAnalyzer是一个开源的,基于java语言开发的轻量级的中文分词工具包。从2006年12月推出1.0版开始,IKAnalyzer 已经推出了3个大版本。最初,它是以开源项目Luence为应用主体的,结合词典分词和文法分析算法的中文分词组件。新版本的IKAnalyzer3.0 则发展为面向Java的公用分词组件,独立于Lucene项目,同时提供了对Lucene的默认优化实现。 1.2IKAnalyzer3.0特性 * 采用了特有的“正向迭代最细粒度切分
  3. 所属分类:其它

    • 发布日期:2009-07-21
    • 文件大小:1048576
    • 提供者:linliangyi2006
  1. csw5.0中文分词组件

  2. 一、CSW中分词组件简介 CSW中文分词组件,是一套可自动将一段文本按常规汉语词组进行拆分,并以指定方式进行分隔的COM组件。本组件采用独有的高效的分词引擎及拆分算法,具有准确、高速、资源占用率小等特点。为了满足客户对文本语义进行研究分析的需要,本组件同时提供词性及词频标注功能,可根据用户要求,对其拆分后的词组进行词性标注或词频标注。互联网信息检索、数据库信息查询、智能聊天机器人、文本校对、自动翻译、 自动摘要、自动分类及信息加工处理等各个领域。 二、本组件特点: 1.适应性强 本组全部件采用
  3. 所属分类:C#

    • 发布日期:2009-09-01
    • 文件大小:3145728
    • 提供者:madl_lxj_163
  1. IKAnalyzer3.1.2GA_AllInOne

  2. IKAnalyzer是一个开源的,基于java语言开发的轻量级的中文分词工具包。从2006年12月推出1.0版开始,IKAnalyzer已经推出了3个大版本。最初,它是以开源项目Luence为应用主体的,结合词典分词和文法分析算法的中文分词组件。新版本的IKAnalyzer3.0则发展为面向Java的公用分词组件,独立于Lucene项目,同时提供了对Lucene的默认优化实现。 IKAnalyzer3.0特性: 采用了特有的“正向迭代最细粒度切分算法“,具有50万字/秒的高速处理能力。 采用了
  3. 所属分类:其它

    • 发布日期:2009-09-15
    • 文件大小:1048576
    • 提供者:johney521
  1. lucene分词测试代码

  2. 用java写的图形分词测试的小东西,用的分词器是:来自“猎图网 www.richmap.cn”基于IKAnalyzer分词算法的准商业化Lucene中文分词器,其使用“正向全切分算法”,42万汉字字符/每秒的处理能力(IBM ThinkPad 酷睿I 1.6G 1G内存 WinXP),对数量词、地名、路名的优化处理,对未知词汇采用自识别结合二元切分算法,确保搜索召回率。但是没有源代码下载,只能联系作者索要。
  3. 所属分类:其它

    • 发布日期:2007-11-21
    • 文件大小:2097152
    • 提供者:robinfoxnan
  1. ACWPS(爱博汉语分词系统)分词组件 asp分词组件

  2. 爱博汉语分词系统Web服务器支持标准的HTTP协议,可以跨平台调用,支持分布式运算; 爱博汉语分词系统COM组件提供COM和DLL接口(Windows环境) 以及共享库.so(Linux)形式,可支持所有支持COM接口调用的编程语言及脚本语言。 如:PHP、JSP、ASP、ASP.net、C/C++ 、VC6.0 、VC.net、BC、C#、VB6.0 、VB.net、Delphi、Java等。 爱博汉语分词系统支持自定义词语的功能,用户可根据自己需要定义添加汉语词组。 可根据需要自行定义影响
  3. 所属分类:C#

    • 发布日期:2010-02-28
    • 文件大小:2097152
    • 提供者:selectersky
  1. IKAnalyzer中文分词器

  2. 基于IKAnalyzer分词算法的准商业化Lucene中文分词器。1. 正向全切分算法2. 对数量词、地名、路名的优化处理3. 对未知词汇采用自识别结合二元切分算法,确保搜索召回率(使用方法请参考IKAnalyzer V1.1版)
  3. 所属分类:其它

    • 发布日期:2008-04-12
    • 文件大小:873472
    • 提供者:silyt
  1. IKAnalyzer中文分词器V3.2.X使用手册

  2. 采用了特有的“正向迭代最细粒度切分算法“,具有60万字/秒的高速处理能力。 采用了多子处理器分析模式,支持:英文字母(IP地址、Email、URL)、数字(日期,常用中文数量词,罗马数字,科学计数法),中文词汇(姓名、地名处理)等分词处理。 优化的词典存储,更小的内存占用。支持用户词典扩展定义 针对Lucene全文检索优化的查询分析器IKQueryParser(作者吐血推荐);采用歧义分析算法优化查询关键字的搜索排列组合,能极大的提高Lucene检索的命中率。
  3. 所属分类:Java

    • 发布日期:2011-08-03
    • 文件大小:500736
    • 提供者:feiyu84
  1. IKAnalyzer中文分词器V2012使用手册

  2. 采用了特有的“正向迭代最细粒度切分算法“,具有60万字/秒的高速处理能力。 采用了多子处理器分析模式,支持:英文字母(IP地址、Email、URL)、数字(日期,常用中文数量词,罗马数字,科学计数法),中文词汇(姓名、地名处理)等分词处理。 优化的词典存储,更小的内存占用。支持用户词典扩展定义 针对Lucene全文检索优化的查询分析器IKQueryParser(作者吐血推荐);采用歧义分析算法优化查询关键字的搜索排列组合,能极大的提高Lucene检索的命中率。
  3. 所属分类:Java

    • 发布日期:2012-03-13
    • 文件大小:847872
    • 提供者:mailjava
  1. Google谷歌拼音输入法 1.0.17.0

  2. 智能组句 谷歌拼音输入法的智能组句功能能聪明地理解您的意图。不论是简短会话聊天还是长篇文书撰写,您都将彻底告别以单词为基本单位的繁琐输入步骤。智能化的组句功能大大降低了您的选词时间,提升选词准确率,有效协助您增加工作效率,沟通更加顺畅。 流行词汇 借助丰富、强大的网络搜索资源,谷歌拼音输入法将互联网上的流行词汇、热门搜索词一网打尽。从“超女”李宇春、“型男”师洋,到八荣八耻、新长征路,流行词汇应有尽有,词库定时更新,让您事半功倍地轻松输入。 智能纠错 匆忙的拼写当中小错误难以避免,对于常见的输
  3. 所属分类:网络基础

    • 发布日期:2007-04-10
    • 文件大小:9437184
    • 提供者:chenxhcc
  1. 中文搜索地名

  2. 切记打开Beauty.xcworkspace 运行项目 自定义的UITabBarController,Xcode6 用storyboard连线 用CocoaPods管理: AFN&FMDB&SDWebimage 1、view1controller.h 用fmdb写的 注册登陆 2、View4Controller.h 可增加编辑的通讯录 文件夹addressNumber 3、SettingViewController.h 点个人资料进入MyViewController.h 我的生日,显示的是当前
  3. 所属分类:iOS

    • 发布日期:2014-11-21
    • 文件大小:1048576
    • 提供者:doujiangchen
  1. IOS搜索地名星座

  2. Xcode6 storyboard 输入几月几日可得 星座 输入首字母可得 地名 搜索,索引 UISearchBar UISearchDisplayController
  3. 所属分类:iOS

    • 发布日期:2014-11-21
    • 文件大小:163840
    • 提供者:doujiangchen
  1. IKAnalyzer2.0.2OBF.jar (

  2. 中文分词,IKAnalyzer基于lucene2.0版本API开发,实现了以词典分词为基础的正反向全切分算法,是Lucene Analyzer接口的实现 性能与特性: 1. 正向全切分算法,42万汉字字符/每秒的处理能力(IBM ThinkPad 酷睿I 1.6G 1G内存 WinXP) 2. 对数量词、地名、路名的优化处理 3. 对未知词汇采用自识别结合二元切分算法,确保搜索召回率
  3. 所属分类:其它

    • 发布日期:2009-03-02
    • 文件大小:884736
    • 提供者:qq_21404771
  1. 中文分词学习版

  2. 此为学习版,请勿用于商业用途或扩散。 以下描述转至互联网。 ============== 一、CSW中分词组件简介 CSW中文分词组件,是一套可自动将一段文本按常规汉语词组进行拆分,并以指定方式进行分隔的COM组件。本组件采用独有的高效的分词引擎及拆分算法,具有准确、高速、资源占用率小等特点。为了满足客户对文本语义进行研究分析的需要,本组件同时提供词性及词频标注功能,可根据用户要求,对其拆分后的词组进行词性标注或词频标注。互联网信息检索、数据库信息查询、智能聊天机器人、文本校对、自动翻译、 自
  3. 所属分类:机器学习

    • 发布日期:2018-10-11
    • 文件大小:1048576
    • 提供者:weixin_43387663
  1. 明仔中文网ASP手机交友程序 1.0.rar

  2. 明仔中文网ASP手机交友程序,改改就能用 支持微信访问和UC9。0访问  也可以电脑访问 1首页有几个连接要改  首页地址ssindex.asp 2传照片要上传到服务器 3在就是改搜索页面和注册页面的地名 4在就是用户详细资料也面要改一下 太大了 后台路径:/admin/index.asp 管理员:whzyjsxy  密码:111985426 后台还没有修改基本功能都有,自己删除多余的即可 联系QQ279999471  明仔中文网
  3. 所属分类:其它

    • 发布日期:2019-05-23
    • 文件大小:1048576
    • 提供者:weixin_39841882
  1. Android代码-Java 实现的自然语言处理中文分词

  2. HanLP: Han Language Processing 汉语言处理包 HanLP是一系列模型与算法组成的NLP工具包,由大快搜索主导并完全开源,目标是普及自然语言处理在生产环境中的应用。HanLP具备功能完善、性能高效、架构清晰、语料时新、可自定义的特点。 HanLP提供下列功能: 中文分词 HMM-Bigram(速度与精度最佳平衡;一百兆内存) 最短路分词、N-最短路分词 由字构词(侧重精度,全世界最大语料库,可识别新词;适合NLP任务) 感知机分词、CRF分词 词典分词(侧重速度,每
  3. 所属分类:其它

    • 发布日期:2019-08-06
    • 文件大小:22020096
    • 提供者:weixin_39840924
  1. ftserver全文搜索服务器 v0.9.zip

  2. ftserver全文搜索服务器简介 ftserver是一个轻量全文搜索服务器,具有中英文两套文字处理规则,无需切割中文为单词,可以支持中文字的任意排列,完全索引,不依赖词库,直接搜索网络新词、古代地名、用户昵称。可以把搜索引擎整合到各类应用程序中,也可以作为微服务应用独立运行,比同类产品更容易按需定制,直接编译就可以使用,无需额外配置。 ftserve 0.9 更新日志: 2016-10-09短语搜索改进。 支持English、简体中文、正體中文、日本語、???、Русский、Deuts
  3. 所属分类:其它

    • 发布日期:2019-07-03
    • 文件大小:2097152
    • 提供者:weixin_39840914
  1. ftserver全文搜索服务器 0.9.zip

  2. ftserver是一个轻量全文搜索服务器,具有中英文两套文字处理规则,无需切割中文为单词,可以支持中文字的任意排列,完全索引,不依赖词库,直接搜索网络新词、古代地名、用户昵称。可以把搜索引擎整合到各类应用程序中,也可以作为微服务应用独立运行,比同类产品更容易按需定制,直接编译就可以使用,无需额外配置。ftserve 0.9 更新日志:2016-10-09短语搜索改进。 支持English、简体中文、正體中文、日本語、한국어、Русский、Deutsch...,支持多语言混合搜索。
  3. 所属分类:其它

    • 发布日期:2019-05-25
    • 文件大小:2097152
    • 提供者:weixin_39841856
  1. jcseg:Jcseg是用Java开发的轻量级NLP框架。 提供基于MMSEG算法的CJK和英语细分,并基于TEXTRANK算法实现关键词提取,关键句提取,摘要提取。 Jcseg具有内置的http服务器和用于最新lucene,solr,el

  2. Jcseg是什么? Jcseg是基于mmseg算法的一个轻量级中文分词器,同时集成了关键字提取,关键在于提取,关键句提取和文章自动摘要等功能,并提供了一个基于Jetty的web服务器,方便各大语言直接Jcseg自带了一个jcseg.properties文件用于快速配置而得到适合不同场合的分词应用,例如:最大匹配词长,是否开启中文人名识别,是否追加拼音,是否追加名词等! Jcseg核心功能: 中文分词:mmseg算法+ Jcseg独创的优化算法,七种切分模式。 关键字提取:基于textRank算
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:4194304
    • 提供者:weixin_42123296
  1. php利用scws实现mysql全文搜索功能的方法

  2. 本文实例讲述了php利用scws实现mysql全文搜索功能的方法。分享给大家供大家参考。具体方法如下: scws这样的中文分词插件比较不错,简单的学习了一下,它包涵一些专有名称、人名、地名、数字年代等规则集合,可以直接将语句按这些规则分开成一个一个关键词,准确率在90%-95%之间,按照安装说明把scws的扩展放入php的扩展目录里,下载规则文件和词典文件,并在php配置文件中引用它们,就可以用scws进行分词了. 1) 修改 php 扩展代码以兼容支持 php 5.4.x 2) 修正 php
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:61440
    • 提供者:weixin_38565628
« 12 »