您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. ACWPS(爱博汉语分词系统)分词组件 asp分词组件

  2. 爱博汉语分词系统Web服务器支持标准的HTTP协议,可以跨平台调用,支持分布式运算; 爱博汉语分词系统COM组件提供COM和DLL接口(Windows环境) 以及共享库.so(Linux)形式,可支持所有支持COM接口调用的编程语言及脚本语言。 如:PHP、JSP、ASP、ASP.net、C/C++ 、VC6.0 、VC.net、BC、C#、VB6.0 、VB.net、Delphi、Java等。 爱博汉语分词系统支持自定义词语的功能,用户可根据自己需要定义添加汉语词组。 可根据需要自行定义影响
  3. 所属分类:C#

    • 发布日期:2010-02-28
    • 文件大小:2097152
    • 提供者:selectersky
  1. 藏拙简易中文分词服务器

  2. 藏拙简易中文分词服务器 非常不错,提供WEB环境的 分词服务!
  3. 所属分类:Delphi

    • 发布日期:2011-10-05
    • 文件大小:1048576
    • 提供者:Rock_Guan
  1. 简易中文分词服务器

  2. 中英文混合分词服务器3.0正式发布,绝对稳定高效,分词库扩大到了190多万词汇,算法做了全面修正,稳定性、健壮性、速度都有了质的飞跃!同时提供c、java、C#、delphi、js调用范例 支持大规模并发,线程安全、5万字以内的文章但线程切分1秒内可以切分完毕!
  3. 所属分类:其它

    • 发布日期:2012-03-17
    • 文件大小:6291456
    • 提供者:max09601
  1. 中文分词服务器3.3

  2. 软件名称:百万商业圈简易中文分词服务器 作者:百万商业圈 版本:3.2(目前最新单线程服务器版,支持并发) 具体使用时可将 bwsyq.com.dat 放在分词服务器相同的目录即可 使用前请先启动分词服务器 分词服务器程序既是一个windows 服务程序, 服务名称是:bwsyq fenci service and serve 0.1 (百万商业圈中文分词服务器) 同时又是一个简单的webserver安装启动后,你可以直接在浏览器中输入 http://127.0.0.1:888 进行使用 同时
  3. 所属分类:其它

    • 发布日期:2013-09-02
    • 文件大小:6291456
    • 提供者:yefengying
  1. pscws23-20081221.tar.bz2【中文分词】

  2. php中文分词 ===== PSCWS23 - 说明文档 ===== $Id: readme.txt,v 1.3 2008/12/21 04:37:59 hightman Exp $ [ 关于 PSCWS23 ] PSCWS23 是由 hightman 于 2006 年开发的纯 PHP 代码实现的简易中文分词系统第二和第三版的简称。 PSCWS 是英文 PHP Simple Chinese Words Segmentation 的头字母缩写,它是 SCWS 项目的前身。 现 SCWS 已作为
  3. 所属分类:PHP

    • 发布日期:2013-09-08
    • 文件大小:2097152
    • 提供者:yao__shun__yu
  1. scws23-php

  2. ===== PSCWS23 - 说明文档 ===== $Id: readme.txt,v 1.3 2008/12/21 04:37:59 hightman Exp $ [ 关于 PSCWS23 ] PSCWS23 是由 hightman 于 2006 年开发的纯 PHP 代码实现的简易中文分词系统第二和第三版的简称。 PSCWS 是英文 PHP Simple Chinese Words Segmentation 的头字母缩写,它是 SCWS 项目的前身。 现 SCWS 已作为 FTPHP 项目
  3. 所属分类:PHP

    • 发布日期:2015-03-24
    • 文件大小:3145728
    • 提供者:u014581691
  1. 企业级搜索应用服务器solr

  2. solr 入门 及中文分词器安装与应用
  3. 所属分类:Java

    • 发布日期:2017-08-08
    • 文件大小:745472
    • 提供者:qq_36485886
  1. 易搜索站内全文检索搜索引擎

  2. 导航的根源在于分类,当有100条信息的时候,我们使用类别来定位信息,当有10000条信息的时候,我们用标签来定位信息,当有100..00条信息的时候,无论怎么分类都是难以寻找的,于是就有了搜索… 当一个网站信息越积越多,搜索将会变得越来越重要。以至于终于有一天,当网站发现50%以上的用户来到你的网站第一件事是搜索的时候,搜索就将成为没有“导航”的导航。因此站内搜索成了网站建设的当务之急。随着网络应用的深入,信息量的爆炸性增长,站内搜索成为每个优秀网站必须具备的功能。纵观中国大中小网站,绝大多数
  3. 所属分类:其它

    • 发布日期:2008-12-27
    • 文件大小:228352
    • 提供者:redmethod
  1. 藏拙简易中文分词服务器源代码及词库

  2. 软件名称:藏拙简易中文分词服务器 作者:藏拙 具体使用时可将 cangzhuo.dat 放在分词服务器相同的目录即可 使用前请先启动分词服务器 分词服务器程序既是一个windows 服务程序, 服务名称是:cangzhuo fenci service and serve 0.1 (藏拙中文分词服务器) 同时又是一个简单的webserver安装启动后,你可以直接在浏览器中输入 http://127.0.0.1:888 进行使用 同时又还是一个Scoket server 通信端口是 888. 分词
  3. 所属分类:Web开发

    • 发布日期:2009-02-18
    • 文件大小:1048576
    • 提供者:u012960424
  1. 中文分词服务器源代码及词库

  2. 软件名称:藏拙简易中文分词服务器 作者:藏拙 具体使用时可将 cangzhuo.dat 放在分词服务器相同的目录即可 使用前请先启动分词服务器 分词服务器程序既是一个windows 服务程序, 服务名称是:cangzhuo fenci service and serve 0.1 (藏拙中文分词服务器) 同时又是一个简单的webserver安装启动后,你可以直接在浏览器中输入 http://127.0.0.1:888 进行使用 同时又还是一个Scoket server 通信端口是 888. 分词
  3. 所属分类:Web开发

    • 发布日期:2009-02-18
    • 文件大小:1048576
    • 提供者:xuying198702
  1. 中文分词服务器源代码及词库

  2. 软件名称:藏拙简易中文分词服务器 作者:藏拙 具体使用时可将 cangzhuo.dat 放在分词服务器相同的目录即可 使用前请先启动分词服务器 分词服务器程序既是一个windows 服务程序, 服务名称是:cangzhuo fenci service and serve 0.1 (藏拙中文分词服务器) 同时又是一个简单的webserver安装启动后,你可以直接在浏览器中输入 http://127.0.0.1:888 进行使用 同时又还是一个Scoket server 通信端口是 888. 分词
  3. 所属分类:Web开发

    • 发布日期:2009-02-18
    • 文件大小:1048576
    • 提供者:mysqlyao
  1. PHP中文分词代码 v1.0 UTF-8.rar

  2. PHP中文分词代码使用居于unicode的词库,使用反向匹配模式分词,理论上兼容编码更广泛,并且对utf-8编码尤为方便。由于PhpanAlysis是无组件的系统,因此速度会比有组件的稍慢,不过在大量分词中,由于边分词边完成词库载入,因此内容越多,反而会觉得速度越快,这是正常现象,对于支持PHP-APC的服务器,本程序支持对词典进行缓存,这样做之后理论的速度并不慢于那些带组件的分词程序了。 分词系统是基于字符串匹配的分词方法 ,这种方法又叫做机械分词方法,它是按照一定的策略将待分析的汉字串与
  3. 所属分类:其它

    • 发布日期:2019-07-09
    • 文件大小:2097152
    • 提供者:weixin_39841365
  1. 多讯php中文分词扩展v0.1

  2. 专业提供中文分词PHP扩展和中文词库。使中文分词,全文搜索不再是难点,一个php函数即完成分词。然后即可把分词后的结果存储,再使用sphinx,Lucene等进行索引搜索了。安装说明1。 若服务器为Windows系统,复制PHP扩展包中php_duoxun5.dll到php安装 目录下ext文件夹中(默认为此位置,具体以php.ini中extension_dir定义位 置为准) 2。 若服务器为L
  3. 所属分类:其它

    • 发布日期:2019-07-25
    • 文件大小:1048576
    • 提供者:weixin_39840650
  1. jcseg,Jcseg 是基于 mmseg 算法的一个轻量级中文分词器,同时集成了关键字提取,关键短语提取,关键句子提取和文章自动摘要等功能,并且提供了一个基于 Jetty 的 web 服务器,方便各大语言直接 http 调用,同时提供了最

  2. Jcseg是基于 mmseg 算法的一个轻量级中文分词器,同时集成了关键字提取,关键短语提取,关键句子提取和文章自动摘要等功能,并且提供了一个基于 Jetty 的 web 服务器,方便各大语言直接 http 调用,同时提供了最新版本的 lucene, solr, elasticsearch 的分词接口!Jcseg自带了一个 jcseg.properties 文件用于快速配置而得到适合不同场合的分词应用,例如:最大匹配词长,是否开启中文人名识别,是否追加拼音,是否追加同义词等!
  3. 所属分类:其它

    • 发布日期:2019-10-13
    • 文件大小:2097152
    • 提供者:weixin_38744153
  1. PHP中文分词代码 v1.0 UTF-8.rar

  2. PHP中文分词代码使用居于unicode的词库,使用反向匹配模式分词,理论上兼容编码更广泛,并且对utf-8编码尤为方便。由于PhpanAlysis是无组件的系统,因此速度会比有组件的稍慢,不过在大量分词中,由于边分词边完成词库载入,因此内容越多,反而会觉得速度越快,这是正常现象,对于支持PHP-APC的服务器,本程序支持对词典进行缓存,这样做之后理论的速度并不慢于那些带组件的分词程序了。 分词系统是基于字符串匹配的分词方法 ,这种方法又叫做机械分词方法,它是按照一定的策略将待分析的汉字串
  3. 所属分类:其它

    • 发布日期:2019-07-07
    • 文件大小:2097152
    • 提供者:weixin_39840588
  1. Jcseg中文分词器 v2.6.2

  2. 为您提供Jcseg中文分词器下载,Jcseg是基于mmseg算法的一个轻量级中文分词器,同时集成了关键字提取,关键短语提取,关键句子提取和文章自动摘要等功能,并且提供了一个基于Jetty的web服务器,方便各大语言直接http调用,同时提供了最新版本的lucene,solr,elasticsearch的分词接口!Jcseg自带了一个jcseg.properties文件用于快速配置而得到适合不同场合的分词应用,例如:最大匹配词长,是
  3. 所属分类:其它

    • 发布日期:2020-09-28
    • 文件大小:4194304
    • 提供者:weixin_38608379
  1. 使用Discuz关键词服务器实现PHP中文分词

  2. 主要介绍了使用Discuz关键词服务器实现PHP中文分词的方法以及代码实例,需要的朋友可以参考下
  3. 所属分类:其它

    • 发布日期:2020-10-26
    • 文件大小:34816
    • 提供者:weixin_38536349
  1. 使用Discuz关键词服务器实现PHP中文分词

  2. 不同于使用自己的服务器进行分词,Discuz!在线中文分词服务是基于API返回分词结果的。在项目中,我们只需要一个函数即可方便地进行分词、关键词提取。以下是根据Discuz!在线分词服务API写的函数,测试可正常运行:复制代码 代码如下:/** * DZ在线中文分词 * param $title string 进行分词的标题 * param $content string 进行分词的内容 * param $encode string API返回的数据编码 * return  array 得到的关
  3. 所属分类:其它

    • 发布日期:2020-12-18
    • 文件大小:41984
    • 提供者:weixin_38680393
  1. npartword:golang分布式中文分词系统-源码

  2. npw介绍 npw:npartword,golang实现中文分词系统,主体分词逻辑有两个部分。 1.初步树查找字典,通过disctance或mmseg算法过滤分词 2.维特比算法解隐马尔可夫模型,对词进行隐状态标注分词 3.加入情感词典,文本情感分类算法,对文本进行情感评分,如积极,消极,否定等,一般分值越来越文本的积极性发生 分词服务系统的实现,通过nmid的worker方式实现。 1.分词系统服务端,需要实现nmid的工人,服务的实现十分简单,无需考虑通信问题,这些nmid解决。 2.
  3. 所属分类:其它

    • 发布日期:2021-03-11
    • 文件大小:6291456
    • 提供者:weixin_42151305
  1. HanLP:中文分词词性标注命名实体识别依存句法分析语义依存分析新词发现用自动生成的摘要进行文本分类聚类拼音简繁转换自然语言处理-源码

  2. HanLP:汉语言处理 || || 面向生产环境的多语种自然语言处理工具包,基于PyTorch和TensorFlow 2.x双引擎,目标是普及落地最前沿的NLP技术。HanLP实现功能完善,性能高效,架构清晰,语料时新,可自定义的特点。 穿越世界上最大的多语言种语料库,HanLP2.1支持包括简繁中英日俄法德内部的104种语言上的10种联合任务:分词(粗分,细分2个标准,强制,合并,校正3种),词性标注(PKU,863,CTB,UD四套词性规范),命名实体识别(PKU,MSRA,OntoNot
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:775168
    • 提供者:weixin_42134054
« 12 3 4 5 6 »