您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. csw5.0中文分词组件

  2. 一、CSW中分词组件简介 CSW中文分词组件,是一套可自动将一段文本按常规汉语词组进行拆分,并以指定方式进行分隔的COM组件。本组件采用独有的高效的分词引擎及拆分算法,具有准确、高速、资源占用率小等特点。为了满足客户对文本语义进行研究分析的需要,本组件同时提供词性及词频标注功能,可根据用户要求,对其拆分后的词组进行词性标注或词频标注。互联网信息检索、数据库信息查询、智能聊天机器人、文本校对、自动翻译、 自动摘要、自动分类及信息加工处理等各个领域。 二、本组件特点: 1.适应性强 本组全部件采用
  3. 所属分类:C#

    • 发布日期:2009-09-01
    • 文件大小:3145728
    • 提供者:madl_lxj_163
  1. ICTCLAS2009(中文分词)接口文档

  2. 中科院分词的文档,想学习分词的朋友可以下载看看!
  3. 所属分类:专业指导

    • 发布日期:2009-12-28
    • 文件大小:302080
    • 提供者:coolplayerstogo
  1. freeICTCLAS 中科院 中文分词

  2. FreeICTCLAS 中科院中文分词 含中科院计算所ICTCLAS2009接口文档
  3. 所属分类:专业指导

    • 发布日期:2011-02-28
    • 文件大小:2097152
    • 提供者:sunningPig
  1. java中文分词例子

  2. 利用中科院中文分词系统做的java接口简单易懂的例子
  3. 所属分类:Java

    • 发布日期:2008-04-12
    • 文件大小:2097152
    • 提供者:whatareyouding
  1. je-analyzer-1.5.3lucene中文分词组件

  2. 分词算法:正向最大匹配 + 词尾多重消歧 + 22万精选词典分词效率:每秒30万字(测试环境迅驰1.6,第一次分词需要1-2秒加载词典) 内存消耗:30M 支持分词粒度控制支持Lucene分词接口支持英文、数字、中文混合分词支持中文词典动态维护 支持中英文噪声词过滤 支持人名匹配 支持地名匹配 支持数量词匹配 支持中文数字匹配 支持日期时间匹配 支持电子邮件匹配 支持商品编码匹配
  3. 所属分类:其它

    • 发布日期:2008-04-14
    • 文件大小:892928
    • 提供者:shylanse
  1. 中科院中文分词系统的java接口 笔记

  2. 中科院中文分词系统的java接口 笔记
  3. 所属分类:Java

  1. chinesetokenize中文分词

  2. 1. 识别率达到85%以上。虽然和专业分词系统相比有一定的差距,但对于中型搜索引擎分词需求而言足够了。2. 对于前后歧义有较好的识别效果。如,成都市场报刊 -- 成都 / 市场 / 报刊中国和服装饰公司 -- 中国 / 和服 / 装饰 / 公司我的MSN是eunge.liu@gmail.com,有事找我 -- 我 / 的 / MSN / 是 / eunge.liu@gmail.com / 有事 / 找 / 我3. 标点符号自动过滤,包括ASCII和Unicode标点。4. 自定义噪音词(不知道
  3. 所属分类:其它

    • 发布日期:2008-05-23
    • 文件大小:1037312
    • 提供者:wuqueyouhen
  1. ICTCLAS2009版中文分词系统

  2. 中国科学院计算技术研究所在多年研究工作积累的基础上,研制出了汉语词法分析系统ICTCLAS(Institute of Computing Technology, Chinese Lexical Analysis System),主要功能包括中文分词;词性标注;命名实体识别;新词识别;同时支持用户词典。我们先后精心打造五年,内核升级7次,目前已经升级到了ICTCLAS2009 用户词典接口扩展 用户可以动态增加、删除用户词典中的词,调节分词的效果。提高了用户词典使用的灵活性。 分词粒度可调 可以
  3. 所属分类:C++

    • 发布日期:2012-01-02
    • 文件大小:9437184
    • 提供者:yahawami
  1. 中文分词系统ICTCLAS

  2. 中文词法分析是中文信息处理的基础与关键。中国科学院计算技术研究所在多年研究工作积累的基础上,研制出了汉语词法分析系统ICTCLAS(Institute of Computing Technology, Chinese Lexical Analysis System),主要功能包括中文分词;词性标注;命名实体识别;新词识别;同时支持用户词典。我们先后精心打造五年,内核升级6次,目前已经升级到了ICTCLAS3.0。ICTCLAS3.0分词速度单机996KB/s,分词精度98.45%,API不超过
  3. 所属分类:Web开发

    • 发布日期:2012-03-06
    • 文件大小:8388608
    • 提供者:huangsong_265
  1. 中文分词部分代码

  2. 中文分词已实现了1、一维线性表 2、首字Hash 3、双Hash 三种词典的存储结构与表现形式。 首先来看一下词典结构的接口Interface: java 代码
  3. 所属分类:Java

    • 发布日期:2012-08-21
    • 文件大小:4096
    • 提供者:lq1121028216
  1. 中文分词器nlpir Java32位开发接口

  2. 需配合完整开发包使用,NLPIR汉语分词系统(又名ICTCLAS2013),主要功能包括中文分词;词性标注;命名实体识别;用户词典功能;支持GBK编码、UTF8编码、BIG5编码。新增微博分词、新词发现与关键词提取;张华平博士先后倾力打造十余年,内核升级10次。 全球用户突破20万,先后获得了2010年钱伟长中文信息处理科学技术奖一等奖,2003年国际SIGHAN分词大赛综合第一名,2002年国内973评测综合第一名。
  3. 所属分类:Java

    • 发布日期:2013-04-15
    • 文件大小:788480
    • 提供者:wskings
  1. 中文分词算法接口文档

  2. 中科院中文分词算法的接口介绍,包括C++,java,C#等语言
  3. 所属分类:Java

    • 发布日期:2013-04-15
    • 文件大小:203776
    • 提供者:libohuiyuan
  1. pscws23-20081221.tar.bz2【中文分词】

  2. php中文分词 ===== PSCWS23 - 说明文档 ===== $Id: readme.txt,v 1.3 2008/12/21 04:37:59 hightman Exp $ [ 关于 PSCWS23 ] PSCWS23 是由 hightman 于 2006 年开发的纯 PHP 代码实现的简易中文分词系统第二和第三版的简称。 PSCWS 是英文 PHP Simple Chinese Words Segmentation 的头字母缩写,它是 SCWS 项目的前身。 现 SCWS 已作为
  3. 所属分类:PHP

    • 发布日期:2013-09-08
    • 文件大小:2097152
    • 提供者:yao__shun__yu
  1. CSW中文分词工具包

  2. CSW分词,比较好用的分词工作,JAVA、C接口
  3. 所属分类:C

    • 发布日期:2008-10-24
    • 文件大小:3145728
    • 提供者:zhangyq2007
  1. windows NLPIR中文分词

  2. 有源码,可以直接运行,在windows下直接调用张华平博士开发的中文分词接口,C++语言编写
  3. 所属分类:C++

    • 发布日期:2016-03-08
    • 文件大小:9437184
    • 提供者:aidanmo
  1. ICTCLAS2009版中文分词系统

  2. 中国科学院计算技术研究所在多年研究工作积累的基础上,研制出了汉语词法分析系统ICTCLAS(Institute of Computing Technology, Chinese Lexical Analysis System),主要功能包括中文分词;词性标注;命名实体识别;新词识别;同时支持用户词典。我们先后精心打造五年,内核升级7次,目前已经升级到了ICTCLAS2009 用户词典接口扩展 用户可以动态增加、删除用户词典中的词,调节分词的效果。提高了用户词典使用的灵活性。 分词粒度可调 可以
  3. 所属分类:嵌入式

    • 发布日期:2009-02-23
    • 文件大小:9437184
    • 提供者:zhangshibin8500
  1. 中文分词学习版

  2. 此为学习版,请勿用于商业用途或扩散。 以下描述转至互联网。 ============== 一、CSW中分词组件简介 CSW中文分词组件,是一套可自动将一段文本按常规汉语词组进行拆分,并以指定方式进行分隔的COM组件。本组件采用独有的高效的分词引擎及拆分算法,具有准确、高速、资源占用率小等特点。为了满足客户对文本语义进行研究分析的需要,本组件同时提供词性及词频标注功能,可根据用户要求,对其拆分后的词组进行词性标注或词频标注。互联网信息检索、数据库信息查询、智能聊天机器人、文本校对、自动翻译、 自
  3. 所属分类:机器学习

    • 发布日期:2018-10-11
    • 文件大小:1048576
    • 提供者:weixin_43387663
  1. jcseg,Jcseg 是基于 mmseg 算法的一个轻量级中文分词器,同时集成了关键字提取,关键短语提取,关键句子提取和文章自动摘要等功能,并且提供了一个基于 Jetty 的 web 服务器,方便各大语言直接 http 调用,同时提供了最

  2. Jcseg是基于 mmseg 算法的一个轻量级中文分词器,同时集成了关键字提取,关键短语提取,关键句子提取和文章自动摘要等功能,并且提供了一个基于 Jetty 的 web 服务器,方便各大语言直接 http 调用,同时提供了最新版本的 lucene, solr, elasticsearch 的分词接口!Jcseg自带了一个 jcseg.properties 文件用于快速配置而得到适合不同场合的分词应用,例如:最大匹配词长,是否开启中文人名识别,是否追加拼音,是否追加同义词等!
  3. 所属分类:其它

    • 发布日期:2019-10-13
    • 文件大小:2097152
    • 提供者:weixin_38744153
  1. Jcseg中文分词器 v2.6.2

  2. 为您提供Jcseg中文分词器下载,Jcseg是基于mmseg算法的一个轻量级中文分词器,同时集成了关键字提取,关键短语提取,关键句子提取和文章自动摘要等功能,并且提供了一个基于Jetty的web服务器,方便各大语言直接http调用,同时提供了最新版本的lucene,solr,elasticsearch的分词接口!Jcseg自带了一个jcseg.properties文件用于快速配置而得到适合不同场合的分词应用,例如:最大匹配词长,是
  3. 所属分类:其它

    • 发布日期:2020-09-28
    • 文件大小:4194304
    • 提供者:weixin_38608379
  1. ansj_seg:ansj分词.ict的真正的Java实现。分词效果速度都超过了开源版的ict。中文分词,人名识别,词性标注,用户自定义词典-源码

  2. Ansj中文分词 使用帮助 开发文档: , 摘要 这是一个基于n-Gram + CRF + HMM的中文分词的java实现。 分词速度达到每秒钟大约200万字左右(mac air下测试),准确率能达到96%以上。 目前实现了中文分词,中文姓名识别,用户自定义词典,关键字提取,自动摘要,关键字标记等功能。 可以应用到自然语言处理等方面,适用于对分词效果要求高的各种项目。 专家 org.ansj ansj_seg
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:25165824
    • 提供者:weixin_42102401
« 12 3 4 5 6 7 »