您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. ACWPS(爱博汉语分词系统)分词组件 asp分词组件

  2. 爱博汉语分词系统Web服务器支持标准的HTTP协议,可以跨平台调用,支持分布式运算; 爱博汉语分词系统COM组件提供COM和DLL接口(Windows环境) 以及共享库.so(Linux)形式,可支持所有支持COM接口调用的编程语言及脚本语言。 如:PHP、JSP、ASP、ASP.net、C/C++ 、VC6.0 、VC.net、BC、C#、VB6.0 、VB.net、Delphi、Java等。 爱博汉语分词系统支持自定义词语的功能,用户可根据自己需要定义添加汉语词组。 可根据需要自行定义影响
  3. 所属分类:C#

    • 发布日期:2010-02-28
    • 文件大小:2097152
    • 提供者:selectersky
  1. 藏拙简易中文分词服务器

  2. 藏拙简易中文分词服务器 非常不错,提供WEB环境的 分词服务!
  3. 所属分类:Delphi

    • 发布日期:2011-10-05
    • 文件大小:1048576
    • 提供者:Rock_Guan
  1. 简易中文分词服务器

  2. 中英文混合分词服务器3.0正式发布,绝对稳定高效,分词库扩大到了190多万词汇,算法做了全面修正,稳定性、健壮性、速度都有了质的飞跃!同时提供c、java、C#、delphi、js调用范例 支持大规模并发,线程安全、5万字以内的文章但线程切分1秒内可以切分完毕!
  3. 所属分类:其它

    • 发布日期:2012-03-17
    • 文件大小:6291456
    • 提供者:max09601
  1. Solr3.6+IKAnalyzer3.2.8分词安装部署

  2. Solr是一个全文检索服务器,基于Lucene3.5开发的,我们可以在solr的基础上进行定制化的开发。新手学习记录了学习过程为后来者提供个参考吧。
  3. 所属分类:Java

    • 发布日期:2012-05-09
    • 文件大小:337920
    • 提供者:xuanyl
  1. 中文分词服务器3.3

  2. 软件名称:百万商业圈简易中文分词服务器 作者:百万商业圈 版本:3.2(目前最新单线程服务器版,支持并发) 具体使用时可将 bwsyq.com.dat 放在分词服务器相同的目录即可 使用前请先启动分词服务器 分词服务器程序既是一个windows 服务程序, 服务名称是:bwsyq fenci service and serve 0.1 (百万商业圈中文分词服务器) 同时又是一个简单的webserver安装启动后,你可以直接在浏览器中输入 http://127.0.0.1:888 进行使用 同时
  3. 所属分类:其它

    • 发布日期:2013-09-02
    • 文件大小:6291456
    • 提供者:yefengying
  1. pscws23-20081221.tar.bz2【中文分词】

  2. php中文分词 ===== PSCWS23 - 说明文档 ===== $Id: readme.txt,v 1.3 2008/12/21 04:37:59 hightman Exp $ [ 关于 PSCWS23 ] PSCWS23 是由 hightman 于 2006 年开发的纯 PHP 代码实现的简易中文分词系统第二和第三版的简称。 PSCWS 是英文 PHP Simple Chinese Words Segmentation 的头字母缩写,它是 SCWS 项目的前身。 现 SCWS 已作为
  3. 所属分类:PHP

    • 发布日期:2013-09-08
    • 文件大小:2097152
    • 提供者:yao__shun__yu
  1. 企业级搜索应用服务器solr

  2. solr 入门 及中文分词器安装与应用
  3. 所属分类:Java

    • 发布日期:2017-08-08
    • 文件大小:745472
    • 提供者:qq_36485886
  1. solr-4.10.2部署到Tomcat所需的jar包和IK分词器资源

  2. 压缩包包含solr部署到Tomcat服务器上所需要的相关jar包,以及solr所需要的IK分词器的相关资源的!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!
  3. 所属分类:Java

    • 发布日期:2017-09-04
    • 文件大小:3145728
    • 提供者:qq_35118335
  1. 藏拙简易中文分词服务器源代码及词库

  2. 软件名称:藏拙简易中文分词服务器 作者:藏拙 具体使用时可将 cangzhuo.dat 放在分词服务器相同的目录即可 使用前请先启动分词服务器 分词服务器程序既是一个windows 服务程序, 服务名称是:cangzhuo fenci service and serve 0.1 (藏拙中文分词服务器) 同时又是一个简单的webserver安装启动后,你可以直接在浏览器中输入 http://127.0.0.1:888 进行使用 同时又还是一个Scoket server 通信端口是 888. 分词
  3. 所属分类:Web开发

    • 发布日期:2009-02-18
    • 文件大小:1048576
    • 提供者:u012960424
  1. 中文分词服务器源代码及词库

  2. 软件名称:藏拙简易中文分词服务器 作者:藏拙 具体使用时可将 cangzhuo.dat 放在分词服务器相同的目录即可 使用前请先启动分词服务器 分词服务器程序既是一个windows 服务程序, 服务名称是:cangzhuo fenci service and serve 0.1 (藏拙中文分词服务器) 同时又是一个简单的webserver安装启动后,你可以直接在浏览器中输入 http://127.0.0.1:888 进行使用 同时又还是一个Scoket server 通信端口是 888. 分词
  3. 所属分类:Web开发

    • 发布日期:2009-02-18
    • 文件大小:1048576
    • 提供者:xuying198702
  1. 中文分词服务器源代码及词库

  2. 软件名称:藏拙简易中文分词服务器 作者:藏拙 具体使用时可将 cangzhuo.dat 放在分词服务器相同的目录即可 使用前请先启动分词服务器 分词服务器程序既是一个windows 服务程序, 服务名称是:cangzhuo fenci service and serve 0.1 (藏拙中文分词服务器) 同时又是一个简单的webserver安装启动后,你可以直接在浏览器中输入 http://127.0.0.1:888 进行使用 同时又还是一个Scoket server 通信端口是 888. 分词
  3. 所属分类:Web开发

    • 发布日期:2009-02-18
    • 文件大小:1048576
    • 提供者:mysqlyao
  1. solr和中文分词器.zip

  2. Solr是一个高性能,采用Java开发,基于Lucene的全文搜索服务器。同时对其进行了扩展,提供了比Lucene更为丰富的查询语言,同时实现了可配置、可扩展并对查询性能进行了优化,并且提供了一个完善的功能管理界面,是一款非常优秀的全文搜索引擎。
  3. 所属分类:互联网

    • 发布日期:2020-05-06
    • 文件大小:150994944
    • 提供者:qq_44719527
  1. elasticsearch-6.2.2,ik分词器,kibana-6.2.2-windows-64

  2. Elasticsearch是一个基于Lucene的搜索服务器。它提供了一个分布式多用户能力的全文搜索引擎,基于RESTful web接口。Elasticsearch是用Java语言开发的,并作为Apache许可条款下的开放源码发布,是一种流行的企业级搜索引擎。Elasticsearch用于云计算中,能够达到实时搜索,稳定,可靠,快速,安装使用方便。
  3. 所属分类:搜索引擎

    • 发布日期:2020-04-29
    • 文件大小:102760448
    • 提供者:qq_43391088
  1. jcseg,Jcseg 是基于 mmseg 算法的一个轻量级中文分词器,同时集成了关键字提取,关键短语提取,关键句子提取和文章自动摘要等功能,并且提供了一个基于 Jetty 的 web 服务器,方便各大语言直接 http 调用,同时提供了最

  2. Jcseg是基于 mmseg 算法的一个轻量级中文分词器,同时集成了关键字提取,关键短语提取,关键句子提取和文章自动摘要等功能,并且提供了一个基于 Jetty 的 web 服务器,方便各大语言直接 http 调用,同时提供了最新版本的 lucene, solr, elasticsearch 的分词接口!Jcseg自带了一个 jcseg.properties 文件用于快速配置而得到适合不同场合的分词应用,例如:最大匹配词长,是否开启中文人名识别,是否追加拼音,是否追加同义词等!
  3. 所属分类:其它

    • 发布日期:2019-10-13
    • 文件大小:2097152
    • 提供者:weixin_38744153
  1. PHP中文分词代码 v1.0 UTF-8.rar

  2. PHP中文分词代码使用居于unicode的词库,使用反向匹配模式分词,理论上兼容编码更广泛,并且对utf-8编码尤为方便。由于PhpanAlysis是无组件的系统,因此速度会比有组件的稍慢,不过在大量分词中,由于边分词边完成词库载入,因此内容越多,反而会觉得速度越快,这是正常现象,对于支持PHP-APC的服务器,本程序支持对词典进行缓存,这样做之后理论的速度并不慢于那些带组件的分词程序了。 分词系统是基于字符串匹配的分词方法 ,这种方法又叫做机械分词方法,它是按照一定的策略将待分析的汉字串
  3. 所属分类:其它

    • 发布日期:2019-07-07
    • 文件大小:2097152
    • 提供者:weixin_39840588
  1. Jcseg中文分词器 v2.6.2

  2. 为您提供Jcseg中文分词器下载,Jcseg是基于mmseg算法的一个轻量级中文分词器,同时集成了关键字提取,关键短语提取,关键句子提取和文章自动摘要等功能,并且提供了一个基于Jetty的web服务器,方便各大语言直接http调用,同时提供了最新版本的lucene,solr,elasticsearch的分词接口!Jcseg自带了一个jcseg.properties文件用于快速配置而得到适合不同场合的分词应用,例如:最大匹配词长,是
  3. 所属分类:其它

    • 发布日期:2020-09-28
    • 文件大小:4194304
    • 提供者:weixin_38608379
  1. 使用Discuz关键词服务器实现PHP中文分词

  2. 主要介绍了使用Discuz关键词服务器实现PHP中文分词的方法以及代码实例,需要的朋友可以参考下
  3. 所属分类:其它

    • 发布日期:2020-10-26
    • 文件大小:34816
    • 提供者:weixin_38536349
  1. 使用Discuz关键词服务器实现PHP中文分词

  2. 不同于使用自己的服务器进行分词,Discuz!在线中文分词服务是基于API返回分词结果的。在项目中,我们只需要一个函数即可方便地进行分词、关键词提取。以下是根据Discuz!在线分词服务API写的函数,测试可正常运行:复制代码 代码如下:/** * DZ在线中文分词 * param $title string 进行分词的标题 * param $content string 进行分词的内容 * param $encode string API返回的数据编码 * return  array 得到的关
  3. 所属分类:其它

    • 发布日期:2020-12-18
    • 文件大小:41984
    • 提供者:weixin_38680393
  1. npartword:golang分布式中文分词系统-源码

  2. npw介绍 npw:npartword,golang实现中文分词系统,主体分词逻辑有两个部分。 1.初步树查找字典,通过disctance或mmseg算法过滤分词 2.维特比算法解隐马尔可夫模型,对词进行隐状态标注分词 3.加入情感词典,文本情感分类算法,对文本进行情感评分,如积极,消极,否定等,一般分值越来越文本的积极性发生 分词服务系统的实现,通过nmid的worker方式实现。 1.分词系统服务端,需要实现nmid的工人,服务的实现十分简单,无需考虑通信问题,这些nmid解决。 2.
  3. 所属分类:其它

    • 发布日期:2021-03-11
    • 文件大小:6291456
    • 提供者:weixin_42151305
  1. HanLP:中文分词词性标注命名实体识别依存句法分析语义依存分析新词发现用自动生成的摘要进行文本分类聚类拼音简繁转换自然语言处理-源码

  2. HanLP:汉语言处理 || || 面向生产环境的多语种自然语言处理工具包,基于PyTorch和TensorFlow 2.x双引擎,目标是普及落地最前沿的NLP技术。HanLP实现功能完善,性能高效,架构清晰,语料时新,可自定义的特点。 穿越世界上最大的多语言种语料库,HanLP2.1支持包括简繁中英日俄法德内部的104种语言上的10种联合任务:分词(粗分,细分2个标准,强制,合并,校正3种),词性标注(PKU,863,CTB,UD四套词性规范),命名实体识别(PKU,MSRA,OntoNot
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:775168
    • 提供者:weixin_42134054
« 12 3 4 5 6 7 8 9 10 »