您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. csw5.0中文分词组件

  2. 一、CSW中分词组件简介 CSW中文分词组件,是一套可自动将一段文本按常规汉语词组进行拆分,并以指定方式进行分隔的COM组件。本组件采用独有的高效的分词引擎及拆分算法,具有准确、高速、资源占用率小等特点。为了满足客户对文本语义进行研究分析的需要,本组件同时提供词性及词频标注功能,可根据用户要求,对其拆分后的词组进行词性标注或词频标注。互联网信息检索、数据库信息查询、智能聊天机器人、文本校对、自动翻译、 自动摘要、自动分类及信息加工处理等各个领域。 二、本组件特点: 1.适应性强 本组全部件采用
  3. 所属分类:C#

    • 发布日期:2009-09-01
    • 文件大小:3145728
    • 提供者:madl_lxj_163
  1. ACWPS(爱博汉语分词系统)分词组件 asp分词组件

  2. 爱博汉语分词系统Web服务器支持标准的HTTP协议,可以跨平台调用,支持分布式运算; 爱博汉语分词系统COM组件提供COM和DLL接口(Windows环境) 以及共享库.so(Linux)形式,可支持所有支持COM接口调用的编程语言及脚本语言。 如:PHP、JSP、ASP、ASP.net、C/C++ 、VC6.0 、VC.net、BC、C#、VB6.0 、VB.net、Delphi、Java等。 爱博汉语分词系统支持自定义词语的功能,用户可根据自己需要定义添加汉语词组。 可根据需要自行定义影响
  3. 所属分类:C#

    • 发布日期:2010-02-28
    • 文件大小:2097152
    • 提供者:selectersky
  1. 标准中文分词

  2. 本软件可以进行中文的分词,同时还能进行人名的分析
  3. 所属分类:专业指导

    • 发布日期:2008-03-07
    • 文件大小:993280
    • 提供者:heacy521
  1. 中文三码输入法11.8实用版

  2. 中文分横竖撇点折口六类,三码单字上屏字均2键,词汇可盲打上屏,快超五笔! 选"中"简明输入词组,一般不用翻页! 选"汉"精确输入海量词组,也不用翻页! 选"中与全角/4码唯1自动上屏/重1码空格键上屏/重2码;键/重3码’键上屏! 软件可任意补充字词,可手动调频字词顺序,安装后的信息窗口内有详细帮助! 编码标准规范,简易高效,学用几乎无难点,无重点,无注解,无例外,极有规律! 拼音输入的极大的词汇量,对提高汉语水平,对标准语音和词汇应用帮助极大! 笔划输入的汉字书写笔画笔划笔顺,对错字别字倒笔
  3. 所属分类:Java

    • 发布日期:2010-11-09
    • 文件大小:2097152
    • 提供者:om111
  1. ICTCLAS2009版中文分词系统

  2. 中国科学院计算技术研究所在多年研究工作积累的基础上,研制出了汉语词法分析系统ICTCLAS(Institute of Computing Technology, Chinese Lexical Analysis System),主要功能包括中文分词;词性标注;命名实体识别;新词识别;同时支持用户词典。我们先后精心打造五年,内核升级7次,目前已经升级到了ICTCLAS2009 用户词典接口扩展 用户可以动态增加、删除用户词典中的词,调节分词的效果。提高了用户词典使用的灵活性。 分词粒度可调 可以
  3. 所属分类:C++

    • 发布日期:2012-01-02
    • 文件大小:9437184
    • 提供者:yahawami
  1. 中科院分词器ICTCLAS

  2. 中科院语义分词 ICTCLAS 中科院官方于2009年2月19日发布了中科院中文分词器ICTCLAS2009版,转引官方介绍说明,新版本的中文分词系统在原有的基础上主要完善的有: 1、用户词典接口扩展 用户可以动态增加、删除用户词典中的词,调节分词的效果。提高了用户词典使用的灵活性。 2、分词粒度可调 可以控制分词结果的粒度。共享版本提供两种分词粒度,标准粒度和粗粒度,满足不同用户的需求。 3、词性标注功能加强 多种标注级的选择,系统可供选择的标注级有:计算所一级标注级,计算所二级标注集,北大
  3. 所属分类:Web开发

    • 发布日期:2012-03-08
    • 文件大小:2097152
    • 提供者:abing79
  1. CSW中文分词组件 5.0 (标准C++)

  2. CSW中文分词组件 5.0 (标准C++)
  3. 所属分类:其它

    • 发布日期:2016-05-06
    • 文件大小:7340032
    • 提供者:u013411813
  1. 11款开放中文分词引擎测试数据

  2. benchmark 人工标注“标准答案” origin 标注原始数据 news 新闻数据 weibo 微博数据 auto_comments 汽车论坛数据 food_comments 餐饮点评数据 itp_cloud 语言云 jieba 结巴分词 pangu 盘古分词 paoding 庖丁解牛分词器 qcloud 腾讯文智 sina 新浪云 sogou 搜狗分词
  3. 所属分类:深度学习

    • 发布日期:2017-12-29
    • 文件大小:2097152
    • 提供者:xujin18
  1. 小旋风垂直搜索平台,快速拱建垂直搜索引擎

  2. 小旋风垂直搜索平台 源代码共享计划 小旋风是什么? 小旋风是一款集多任务、多线程智能网络爬虫、基于xml / xpath的路径规则的数据抽取系统、无缝集成lucene.net2.3全文索引系统,高性能中文分词组件、多数据库支持的综合垂直搜索引擎平台。 它帮您快速搭建任何一个您期望中的垂直搜索平台,比如酷讯(kuxun.cn),比如去哪儿,比如搜职网,比如爱帮网等等。 为什么小旋风是客户端,它是基于什么平台开发的? 从程序使用的方便性及性能上考虑,我们为发挥客户端强大的权限优势,为您提供一个最容
  3. 所属分类:C#

    • 发布日期:2008-12-26
    • 文件大小:2097152
    • 提供者:u011080034
  1. 中文分词(C语言版)含技术文档和源代码还有词库

  2. 本中文分词系统,速度大约1万字/1秒,大小100K(免费+开源+86万词库+操作示意图+测试用例) 目前系统在进行了大规模分词测试后的大致性能指标如下: 1000字以内的文章完全切分,用时间不超过 10毫秒! 5000字以内的文章完全切分,用时间不超过 500毫秒! 10000字以内的文章完全切分,用时间不超过 1秒! 本版本是简易版,分词准确率为 91.8%,系统稳定性为99.99%,中文分词系统符合工业化的标准! 目前支持中英文混合切分词,各种全角,半角标点符号的过滤! 系统自带词库含有
  3. 所属分类:C

    • 发布日期:2009-02-10
    • 文件大小:1048576
    • 提供者:czw0005
  1. 用纯C语言开发了一个中文分词系统,速度大约1万字/1秒,大小100K(免费+开源+86万词库+操作示意图+测试用例)

  2. 用纯C语言开发了一个中文分词系统,速度大约1万字/1秒,大小100K(免费+开源+86万词库+操作示意图+测试用例) 用法很简单,比如:你把中文分词系统解压后保存到D:\那你直接在 dos 窗口下输入: d:\cfenci.exe 然后回车就可以了! 启动无需任何参数。 目前系统在进行了大规模分词测试后的大致性能指标如下: 1000字以内的文章完全切分,用时间不超过 10毫秒! 5000字以内的文章完全切分,用时间不超过 500毫秒! 10000字以内的文章完全切分,用时间不超过 1秒! 本版
  3. 所属分类:C

    • 发布日期:2009-02-10
    • 文件大小:1048576
    • 提供者:sureubet
  1. 用纯C语言开发了一个中文分词系统,速度大约1万字/1秒,大小100K(免费+开源+86万词库+操作示意图+测试用例)

  2. 分词准确率为 91.8%,系统稳定性为99.99%,中文分词系统符合工业化的标准! 用法很简单,比如:你把中文分词系统解压后保存到D:\那你直接在 dos 窗口下输入: d:\cfenci.exe 然后回车就可以了! 启动无需任何参数。 目前系统在进行了大规模分词测试后的大致性能指标如下: 1000字以内的文章完全切分,用时间不超过 10毫秒! 5000字以内的文章完全切分,用时间不超过 500毫秒! 10000字以内的文章完全切分,用时间不超过 1秒! 本版本是简易版,分词准确率为 91.8
  3. 所属分类:C

    • 发布日期:2009-02-10
    • 文件大小:1048576
    • 提供者:jc57160129
  1. ICTCLAS2009版中文分词系统

  2. 中国科学院计算技术研究所在多年研究工作积累的基础上,研制出了汉语词法分析系统ICTCLAS(Institute of Computing Technology, Chinese Lexical Analysis System),主要功能包括中文分词;词性标注;命名实体识别;新词识别;同时支持用户词典。我们先后精心打造五年,内核升级7次,目前已经升级到了ICTCLAS2009 用户词典接口扩展 用户可以动态增加、删除用户词典中的词,调节分词的效果。提高了用户词典使用的灵活性。 分词粒度可调 可以
  3. 所属分类:嵌入式

    • 发布日期:2009-02-23
    • 文件大小:9437184
    • 提供者:zhangshibin8500
  1. 11款开放中文分词引擎测试数据

  2. 11款开放中文分词引擎测试数据 benchmark 人工标注“标准答案” origin 标注原始数据 news 新闻数据 weibo 微博数据 auto_comments 汽车论坛数据 food_comments 餐饮点评数据 itp_cloud 语言云 jieba 结巴分词 pangu 盘古分词 paoding 庖丁解牛分词器 qcloud 腾讯文智 sina 新浪云 sogou 搜狗分词
  3. 所属分类:机器学习

    • 发布日期:2018-04-12
    • 文件大小:2097152
    • 提供者:bleadge
  1. 中文分词学习版

  2. 此为学习版,请勿用于商业用途或扩散。 以下描述转至互联网。 ============== 一、CSW中分词组件简介 CSW中文分词组件,是一套可自动将一段文本按常规汉语词组进行拆分,并以指定方式进行分隔的COM组件。本组件采用独有的高效的分词引擎及拆分算法,具有准确、高速、资源占用率小等特点。为了满足客户对文本语义进行研究分析的需要,本组件同时提供词性及词频标注功能,可根据用户要求,对其拆分后的词组进行词性标注或词频标注。互联网信息检索、数据库信息查询、智能聊天机器人、文本校对、自动翻译、 自
  3. 所属分类:机器学习

    • 发布日期:2018-10-11
    • 文件大小:1048576
    • 提供者:weixin_43387663
  1. Python-multicriteriacws简单有效的多标准中文分词

  2. multi-criteria-cws:简单有效的多标准中文分词
  3. 所属分类:其它

    • 发布日期:2019-08-10
    • 文件大小:53477376
    • 提供者:weixin_39840924
  1. 汉语分词标准汇总

  2. 文章目录《PFR人民日报标注语料库》词性编码表《现代汉语语料库加工规范——词语切分与词性标注》词性标记计算所 ICTCLAS 3.0汉语词性标记集形容词(1个一类,4个二类)区别词(1个一类,2个二类)连词(1个一类,1个二类)副词(1个一类)叹词(1个一类)方位词(1个一类)前缀(1个一类)后缀(1个一类)数词(1个一类,1个二类)名词 (1个一类,7个二类,5个三类)拟声词(1个一类)介词(1个一类,2个二类)量词(1个一类,2个二类)代词(1个一类,4个二类,6个三类)处所词(1个一类)时
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:288768
    • 提供者:weixin_38530202
  1. ctbparser:ctbparser是一种用C ++语言实现的开源的中文处理工具包(GBK编码),用于分词,词性标注,依存句法分析,采用的是宾州树库(CTB)标准-源码包

  2. ctbparser ctbparser是一种用C ++语言实现的开源的中文处理工具包(GBK编码),用于分词,词性标注,依存句法分析,采用的是宾州树库(CTB)标准。
  3. 所属分类:其它

    • 发布日期:2021-03-24
    • 文件大小:14680064
    • 提供者:weixin_42134144
  1. Macropodus:自然语言处理工具Macropodus,基于Albert + BiLSTM + CRF深度学习网络架构,中文分词,词性标注,命名实体识别,新词发现,关键词,文本摘要,文本相似度,科学计算器,中文数字阿拉伯NLP的工具(工

  2. Macropodus是一个以Albert + BiLSTM + CRF网络架构为基础,用大量中文语料训练的自然语言处理工具包。将提供中文分词,词性标注,命名实体识别,关键词提取,文本摘要,新词发现,文本相似度,计算器,数字转换,拼音转换,繁简转换等常见的NLP功能。 目录 安装 注意事项默认不安装nlg-yongzhuo, 如果需要该功能自行安装; 默认不指定numpy, pandas, scikit-learn版本, 过高或者过低的版本可能不支持 标准版本的依赖包详见 requirements
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:5242880
    • 提供者:weixin_42112685
  1. HanLP:中文分词词性标注命名实体识别依存句法分析语义依存分析新词发现用自动生成的摘要进行文本分类聚类拼音简繁转换自然语言处理-源码

  2. HanLP:汉语言处理 || || 面向生产环境的多语种自然语言处理工具包,基于PyTorch和TensorFlow 2.x双引擎,目标是普及落地最前沿的NLP技术。HanLP实现功能完善,性能高效,架构清晰,语料时新,可自定义的特点。 穿越世界上最大的多语言种语料库,HanLP2.1支持包括简繁中英日俄法德内部的104种语言上的10种联合任务:分词(粗分,细分2个标准,强制,合并,校正3种),词性标注(PKU,863,CTB,UD四套词性规范),命名实体识别(PKU,MSRA,OntoNot
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:775168
    • 提供者:weixin_42134054
« 12 3 »