您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. JE中文分词je-analysis-1.5.1.jar

  2. 1.5.1 —— 2006-01-22 修正细粒度分词错误的问题 1.5.0 —— 2007-01-18 全面支持Lucene 2.0 增强了词典维护的API 增加了商品编码的匹配 增加了Mail地址的匹配 实现了词尾消歧算法第二层的过滤 整理优化了词库 1.4.0 —— 2006-08-21 增加词典的动态扩展能力 1.3.3 —— 2006-07-23 修正无法多次增加词典的问题 1.3.2 —— 2006-07-03 修正细粒度分词错误的问题 1.3.1 —— 2006-0 6-23 修
  3. 所属分类:其它

    • 发布日期:2009-04-28
    • 文件大小:891904
    • 提供者:tiancen2001
  1. 盘古分词最新版本(2.3.1.0)

  2. 资源为最新的盘古分词器,目前本人用过的比较好用的免费分词器。动态输入词库,动态添加停用词,使用后能达到百度的效果,包括分词高亮控件
  3. 所属分类:专业指导

    • 发布日期:2010-12-07
    • 文件大小:1048576
    • 提供者:dongdongleng
  1. C# 盘古分词

  2. 1、 修改字典格式,提高字典加载速度 2、 增加对英文专业名词的支持 如C++,C#等只要加入字典就可以被分出来 3、 增加词频判断功能,在无法取舍时根据词频取舍 4、 增加优先优先词频选项,通过这个选项动态决定分词粒度 需打开 FreqFirst 5、 增加中文人名前后缀统计和根据该统计定位人名的功能 6、 增加中文人名和未登录词出现频率统计功能 7、 增加自动更新字典功能,对超过阈值的人名和未登录词自动插入字典 需打开 AutoInsertUnknownWords 开关 并设置 Unkno
  3. 所属分类:C#

    • 发布日期:2011-10-28
    • 文件大小:3145728
    • 提供者:jaymezhang
  1. mm中文分词器

  2. 目前最新的中文分词器,可以动态的添加新词,内置有关于淘宝的词库,方便lucene开发或基于lucene的solr的开发用户使用。
  3. 所属分类:Web开发

    • 发布日期:2013-10-22
    • 文件大小:296960
    • 提供者:beijing20120926
  1. Lucene中文分词组件 JE-Analysis 1.5.1

  2. 发布于:http://www.jesoft.cn/posts/list/5.page 1.5.1 —— 2006-01-22 修正细粒度分词错误的问题 1.5.0 —— 2007-01-18 全面支持Lucene 2.0 增强了词典维护的API 增加了商品编码的匹配 增加了Mail地址的匹配 实现了词尾消歧算法第二层的过滤 整理优化了词库 1.4.0 —— 2006-08-21 增加词典的动态扩展能力 1.3.3 —— 2006-07-23 修正无法多次增加词典的问题 1.3.2 —— 200
  3. 所属分类:其它

    • 发布日期:2007-01-22
    • 文件大小:891904
    • 提供者:diystar
  1. 基于ik动态词库分词实现--无需重启服务

  2. 基于ik动态词库分词实现--无需重启服务
  3. 所属分类:Web开发

    • 发布日期:2015-11-09
    • 文件大小:2097152
    • 提供者:jv_kevin
  1. elasticsearch-analysis-ik2.x增加连续数字字母英语智能分词、动态词库刷新支持elasticsearch2.x以上

  2. elasticsearch-analysis-ik根据elasticsearch-analysis-ik2.2.0基础上修改,支持elasticsearch2.2.0(已测)。增加连续数字、字母、英语及其组合智能分词(ik_smart、ik_max_word、ik_indistinct、ik_smart_indistinct启用)支持lucence5.x以上版本。 文件说明:本zip包含IKAnalyzer的src及elasticsearch可运行插件plugins两部分。 使用说明:修改sr
  3. 所属分类:Java

    • 发布日期:2016-03-22
    • 文件大小:11534336
    • 提供者:lipengxiang1688
  1. 中科院中文分词系统及各种调用示例

  2. 这个分词系统需要注册才可使用,不建议大家下载,因为事先不清楚.抱歉!需要的话,可以下载我上传的其它版本. 计算所汉语词法分析系统ICTCLAS同时还提供一套完整的动态连接库ICTCLAS.dll,COM组件和相应的概率词典,开发者可以完全忽略汉语词法分析,直接在自己的系统中调用ICTCLAS,ICTCLAS可以根据需要输出多个高概率的结果,输出格式也可以定制,开发者在分词和词性标注的基础上继续上层开发。
  3. 所属分类:专业指导

    • 发布日期:2008-12-26
    • 文件大小:3145728
    • 提供者:lin746027209
  1. 中科院中文分词系统java版

  2. 计算所汉语词法分析系统ICTCLAS同时还提供一套完整的动态连接库ICTCLAS.dll,COM组件和相应的概率词典,开发者可以完全忽略汉语词法分析,直接在自己的系统中调用ICTCLAS,ICTCLAS可以根据需要输出多个高概率的结果,输出格式也可以定制,开发者在分词和词性标注的基础上继续上层开发。
  3. 所属分类:Java

  1. 中文分词(C语言版)含技术文档和源代码还有词库

  2. 本中文分词系统,速度大约1万字/1秒,大小100K(免费+开源+86万词库+操作示意图+测试用例) 目前系统在进行了大规模分词测试后的大致性能指标如下: 1000字以内的文章完全切分,用时间不超过 10毫秒! 5000字以内的文章完全切分,用时间不超过 500毫秒! 10000字以内的文章完全切分,用时间不超过 1秒! 本版本是简易版,分词准确率为 91.8%,系统稳定性为99.99%,中文分词系统符合工业化的标准! 目前支持中英文混合切分词,各种全角,半角标点符号的过滤! 系统自带词库含有
  3. 所属分类:C

    • 发布日期:2009-02-10
    • 文件大小:1048576
    • 提供者:czw0005
  1. 用纯C语言开发了一个中文分词系统,速度大约1万字/1秒,大小100K(免费+开源+86万词库+操作示意图+测试用例)

  2. 用纯C语言开发了一个中文分词系统,速度大约1万字/1秒,大小100K(免费+开源+86万词库+操作示意图+测试用例) 用法很简单,比如:你把中文分词系统解压后保存到D:\那你直接在 dos 窗口下输入: d:\cfenci.exe 然后回车就可以了! 启动无需任何参数。 目前系统在进行了大规模分词测试后的大致性能指标如下: 1000字以内的文章完全切分,用时间不超过 10毫秒! 5000字以内的文章完全切分,用时间不超过 500毫秒! 10000字以内的文章完全切分,用时间不超过 1秒! 本版
  3. 所属分类:C

    • 发布日期:2009-02-10
    • 文件大小:1048576
    • 提供者:sureubet
  1. 用纯C语言开发了一个中文分词系统,速度大约1万字/1秒,大小100K(免费+开源+86万词库+操作示意图+测试用例)

  2. 分词准确率为 91.8%,系统稳定性为99.99%,中文分词系统符合工业化的标准! 用法很简单,比如:你把中文分词系统解压后保存到D:\那你直接在 dos 窗口下输入: d:\cfenci.exe 然后回车就可以了! 启动无需任何参数。 目前系统在进行了大规模分词测试后的大致性能指标如下: 1000字以内的文章完全切分,用时间不超过 10毫秒! 5000字以内的文章完全切分,用时间不超过 500毫秒! 10000字以内的文章完全切分,用时间不超过 1秒! 本版本是简易版,分词准确率为 91.8
  3. 所属分类:C

    • 发布日期:2009-02-10
    • 文件大小:1048576
    • 提供者:jc57160129
  1. slor动态刷新分词库

  2. 采用servlet的方式对分词库进行动态更新,请求servlet对分词库进行修改
  3. 所属分类:Java

    • 发布日期:2018-07-04
    • 文件大小:2048
    • 提供者:ylf1056157271
  1. Python中文分词库Yaha.zip

  2. "哑哈"中文分词,更快或更准确,由你来定义。通过简单定制,让分词模块更适用于你的需求。 "Yaha" You can custom your Chinese Word Segmentation efficiently by using Yaha 基本功能: 精确模式,将句子切成最合理的词。 全模式,所有的可能词都被切成词,不消除歧义。 搜索引擎模式,在精确的基础上再次驿长词进行切分,提高召回率,适合搜索引擎创建索引。 备选路径,可生成最好的多条切词路径,可在此
  3. 所属分类:其它

    • 发布日期:2019-07-16
    • 文件大小:6291456
    • 提供者:weixin_39841856
  1. 词博词典 V4.0.rar

  2. 词博词典4.0版使用说明(绿色软件,无需安装,下载即可使用):   [1] 收录了40多个专业领域的千万量级科技词汇,是英语学习、科学研究和翻译必备的词典。   [2] 拥有简洁的屏幕取词功能,选中文字后,双击鼠标右键即可。   [3] 动态结果为实时显示查询结果,如果电脑配置低查询速度慢,建议不选动态结果。   [4] 支持汉字和英文多关键词混合查询,例如可以输入“自由 laser”进行查询。   [5] 如果想获取更多结果,例如音标、读音和例句等,可以
  3. 所属分类:其它

    • 发布日期:2019-07-16
    • 文件大小:17825792
    • 提供者:weixin_39840588
  1. 基于sougou词库的分词工具-ik-analyzer-8.1.1

  2. 2019年更新的基于sougou词库的分词工具-ik-analyzer-8.1.1,该版本只适合于最新版本solr 7&8版本,最新发布的,整理后的词库约187.1万条词汇,添加动态加载词典表功能,在不需要重启solr服务的情况下加载新增的词典。
  3. 所属分类:其它

    • 发布日期:2019-08-08
    • 文件大小:9437184
    • 提供者:hello_world_qwp
  1. mlcsseg, solr分词器大补贴, 包括IK ANSJ、过滤器,动态加载词库.zip

  2. mlcsseg, solr分词器大补贴, 包括IK ANSJ、过滤器,动态加载词库
  3. 所属分类:其它

    • 发布日期:2019-09-18
    • 文件大小:8388608
    • 提供者:weixin_38744435
  1. 盘古分词及管理工具.zip

  2. 文件包括盘古分词Demo以及管理工具,可自由实现对词库的动态管理,积分的话也算比较适合,不懂使用的话也可以进行私聊教程
  3. 所属分类:互联网

    • 发布日期:2020-05-20
    • 文件大小:208896
    • 提供者:weixin_42000816
  1. Ikanalyzer分词器动态自定义词库的方法.doc

  2. Ikanalyzer分词器动态自定义词库的方法.doc
  3. 所属分类:深度学习

    • 发布日期:2021-03-08
    • 文件大小:35840
    • 提供者:sun89
  1. Jiayan:甲言,专注于古代汉语(古汉语古文文言文文言)处理的NLP工具包,支持文言词库合成,分词,词性标注,断句和标点。Jiayan是为古典汉语设计的工具包,支持词典构建。 ,标记,POS标记,句子分段和标点符号-源码

  2. 甲言Jiayan 简介 甲言,取“Oracle言”之意,是一种专注于古汉语处理的NLP工具包。目前通用的汉语NLP工具均以现代汉语为核心语料,对古代汉语的处理效果很差(详见)。本项目的初衷,便是辅助古汉语信息处理,帮助有志于挖掘古文化矿藏的古汉语学者,爱好者等更好的地分析和利用文言资料,从“文化遗产”中创造出“文化新产”。当前版本支持,,,和五项功能,更多功能正在开发中。 功能 利用无监督的双,以及左右进行文言词库自动生成。 利用无监督,无词典的和进行古汉语自动分词。 利用词库合成功能产生的文言
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:222208
    • 提供者:weixin_42137022
« 12 3 4 5 6 7 8 9 10 »