您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. IKAnalyzer 3.0 中文分词器

  2. 1.IKAnalyzer3.0介绍 IKAnalyzer是一个开源的,基于java语言开发的轻量级的中文分词工具包。从2006年12月推出1.0版开始,IKAnalyzer 已经推出了3个大版本。最初,它是以开源项目Luence为应用主体的,结合词典分词和文法分析算法的中文分词组件。新版本的IKAnalyzer3.0 则发展为面向Java的公用分词组件,独立于Lucene项目,同时提供了对Lucene的默认优化实现。 1.2IKAnalyzer3.0特性 * 采用了特有的“正向迭代最细粒度切分
  3. 所属分类:其它

    • 发布日期:2009-07-21
    • 文件大小:1048576
    • 提供者:linliangyi2006
  1. java 分词工具,IKAnalysis 用过都说好啊

  2. 很不错的分词工具,大家来看看java 分词工具,IKAnalysis 用过都说好啊
  3. 所属分类:Java

    • 发布日期:2010-03-20
    • 文件大小:1048576
    • 提供者:LoveSSH
  1. SharpICTCLAS分词系统

  2. 这是一个开源的分词系统工具,由中科院研发,相信对大家有帮助
  3. 所属分类:专业指导

  1. 好用的中文分词工具(java开发)

  2. 好用的中文分词工具,java版本,配置java环境,即可运行,开源
  3. 所属分类:Java

    • 发布日期:2010-06-21
    • 文件大小:3145728
    • 提供者:nywily
  1. IkAnalyzer分词工具

  2. IkAnalyzer3.2的jar包 IK Analyzer 是一个开源的,基于java 语言开发的轻量级的中文分词工具包。从2006 年12 月推出1.0 版开始, IKAnalyzer 已经推出了3 个大版本。最初,它是以开源项目 Luence 为应用主体的,结合词典分词和文法分析算法的中文分词组件。新版本的IK Analyzer 3.X 则发展为面向Java 的公用分词组件,独立于Lucene 项目,同时提供了对 Lucene 的默认优化实现。
  3. 所属分类:Java

    • 发布日期:2011-02-11
    • 文件大小:1048576
    • 提供者:ali_myself
  1. IKAnalyzer中文分词好帮手

  2. IK Analyzer 是一个开源的,基于java 语言开发的轻量级的中文分词工具包。从2006 年12 月推出1.0 版开始, IKAnalyzer 已经推出了3 个大版本。最初,它是以开源项目 Luence 为应用主体的,结合词典分词和文法分析算法的中文分词组件。新版本的IK Analyzer 3.0 则发展为面向Java 的公用分词组件,独立于Lucene 项目,同时提供了对 Lucene 的默认优化实现。
  3. 所属分类:Java

    • 发布日期:2011-06-20
    • 文件大小:495616
    • 提供者:zfding2
  1. IKAnlyzer中文分词

  2. IKAnalyzer是一个开源的,基于java语言开发的轻量级的中文分词工具包。从2006年12月推出1.0版开始,IKAnalyzer已经推出 了3个大版本。最初,它是以开源项目Luence为应用主体的,结合词典分词和文法分析算法的中文分词组件。新版本的IKAnalyzer3.0则发展为 面向Java的公用分词组件,独立于Lucene项目,同时提供了对Lucene的默认优化实现。
  3. 所属分类:Java

    • 发布日期:2012-03-13
    • 文件大小:2097152
    • 提供者:mailjava
  1. IKAnalyzer最新版中文分词器以及使用手册

  2. IKAnalyzer是一个开源的,基于JAVA语音开发的轻量级的中文分词工具包。在2012版中,实现了简单的分词歧义排除算法,分词器从单纯的的词典分词向模拟语义衍化。在普通PC环境测试,IKAnalyzer2012具有160万字/秒(3000kb/s)的高速处理能力。
  3. 所属分类:Web开发

    • 发布日期:2012-08-27
    • 文件大小:2097152
    • 提供者:jackchen123456
  1. IKAnalyzer分词手册中文

  2. IK Analyzer 是一个开源的,基于java 语言开发的轻量级的中文分词工具包。从2006 年12 月推出1.0 版开始, IKAnalyzer 已经推出了3 个大版本。最初,它是以开源项目 Luence 为应用主体的,结合词典分词和文法分析算法的中文分词组件。新版本的IK Analyzer 3.0 则发展为面向Java 的公用分词组件,独立于Lucene 项目,同时提供了对 Lucene 的默认优化实现。
  3. 所属分类:网络基础

    • 发布日期:2012-12-07
    • 文件大小:498688
    • 提供者:leannebb
  1. 开源分词工具 opennlp

  2. 开源分词工具OpenNLP库是一个基于机器学习的自然语言文本处理的开发工具包,它支持自然语言处理中一些共有的任务,例如:标记化、句子分割、词性标注、固有实体提取(指在句子中辨认出专有名词,例如:人名)、浅层分析(句字分块)、语法分析及指代。这些任务通常都需要较为先进的文字处理服务功能[1] [2]。
  3. 所属分类:Java

    • 发布日期:2013-04-15
    • 文件大小:3145728
    • 提供者:wskings
  1. 中文分词工具word-1.0,Java实现的中文分词组件多种基于词典的分词算法

  2. word分词是一个Java实现的中文分词组件,提供了多种基于词典的分词算法,并利用ngram模型来消除歧义。 能准确识别英文、数字,以及日期、时间等数量词,能识别人名、地名、组织机构名等未登录词。 同时提供了Lucene、Solr、ElasticSearch插件。 分词使用方法: 1、快速体验 运行项目根目录下的脚本demo-word.bat可以快速体验分词效果 用法: command [text] [input] [output] 命令command的可选值为:demo、text、file
  3. 所属分类:Java

    • 发布日期:2014-11-05
    • 文件大小:10485760
    • 提供者:love_hachi
  1. Jcseg汉语分词工具

  2. Jcseg是一个开源的汉语分词工具,由java语言开发,准确率高达百分之九十八,本程序无需配置,可以直接运行,谢谢!
  3. 所属分类:Java

    • 发布日期:2015-07-13
    • 文件大小:14680064
    • 提供者:liuzhixiong_521
  1. IK分词器,中文检索最好的分词器

  2. IK Analyzer 是一个开源的,基亍 java 语言开发的轻量级的中文分词工具包。从 2006 年 12 月推出 1.0 版开始, IKAnalyzer 已经推出了 4 个大版本。最初,它是以开源项目 Luence 为应用主体的,结合词典分词和文法分析算法的中文分词组件。从 3.0 版本开始, IK 发展为面向 Java 的公用分词组件,独立亍 Lucene 项目,同时提供了对 Lucene 的默认 优化实现。在 2012 版本中,IK 实现了简单的分词歧义排除算法,标志着 IK 分词器
  3. 所属分类:Java

    • 发布日期:2015-12-28
    • 文件大小:2097152
    • 提供者:javaxxs
  1. lucene中文分词工具包

  2. IKAnalyzer 是一个开源的,基于java语言开发的轻量级的中文分词工具包,将一段文字进行IK分词处理一般经过:词典加载、预处理、分词器分词、歧义处理、善后结尾 五个部分
  3. 所属分类:Web开发

    • 发布日期:2018-05-10
    • 文件大小:1048576
    • 提供者:weixin_39268520
  1. IK Analyzer 开源中文分词 2012 u6.zip

  2. IK Analyzer是一个开源的,基于java语言开发的轻量级的中文分词工具包。从2006年12月推出1.0版开始, IKAnalyzer已经推出了4个大版本。最初,它是以开源项目Luence为应用主体的,结合词典分词和文法分析算法的中文分词组件。从3.0版本开 始,IK发展为面向Java的公用分词组件,独立于Lucene项目,同时提供了对Lucene的默认优化实现。在2012版本中,IK实现了简单的分词 歧义排除算法,标志着IK分词器从单纯的词典分词向模拟语义分词衍化。 IK Analyz
  3. 所属分类:其它

    • 发布日期:2019-07-06
    • 文件大小:2097152
    • 提供者:weixin_39840650
  1. PHP中文分词的简单实现代码分享

  2. 当然, 本文不是要对中文搜索引擎做研究, 而是分享如果用 PHP 做一个站内搜索引擎。 本文是这个系统中的一篇。 我使用的分词工具是中科院计算所的开源版本的 ICTCLAS。 另外还有开源的 Bamboo, 我随后也会对该工具进行调研。 从 ICTCLAS 出发是个不错的选择, 因为其算法传播比较广泛, 有公开的学术文档, 并且编译简单, 库依赖少。 但目前只提供了 C/C++, Java 和 C# 版本的代码, 并没有 PHP 版本的代码。 怎么办呢? 也许可以学习它的 C/C++ 源码和学术
  3. 所属分类:其它

    • 发布日期:2020-12-18
    • 文件大小:54272
    • 提供者:weixin_38550334
  1. ctbparser:ctbparser是一种用C ++语言实现的开源的中文处理工具包(GBK编码),用于分词,词性标注,依存句法分析,采用的是宾州树库(CTB)标准-源码包

  2. ctbparser ctbparser是一种用C ++语言实现的开源的中文处理工具包(GBK编码),用于分词,词性标注,依存句法分析,采用的是宾州树库(CTB)标准。
  3. 所属分类:其它

    • 发布日期:2021-03-24
    • 文件大小:14680064
    • 提供者:weixin_42134144
  1. pinyin-plus:简繁体汉字转拼音的项目,解决多音字的问题。ElasticSearch,solr的拼音分词工具-源码

  2. 拼音加 汉字转拼音的库,有如下特点 拼音数据基于 , 开放词库 基于拼音词库的数据初始化分词引擎进行分词,正确度高,解决多音字的问题 支持繁体字 支持自定义词库,词库格式同cc-cedict字典格式 api简单,分为普通模式,索引模式 使用场景 汉字转拼音,常用于索引引擎场景创建拼音的索引,这个场景的问题一般由两种实现路径,一种是直接使用带拼音的分词插件,会自动帮你创建出拼音的索引,还有一种就是自己将汉字转换为拼音字符串,采用间隔分隔分词来达到自定义化索引的目的。恰恰是实现路径,都离不开分词和拼
  3. 所属分类:其它

    • 发布日期:2021-03-03
    • 文件大小:3145728
    • 提供者:weixin_42128988
  1. 麻将:开源中文分词工具包,中文分词Web API,Lucene中文分词,中英文混合分词-源码

  2. 麻将中文分词 简介 麻将一直是广受欢迎的传统娱乐活动,字牌的组合千变万化。汉字的组合也是变化多端,麻将这个项目希望能从汉字组合中发现汉语的秘密,为自然语言处理提供好的中文分词工具。 麻将是基于Scala的语言实现的中文分词软件包。这个项目的核心是最大概率分词,整个项目专为搜索引擎,文本信息抽取和自然语言处理设计,参考我来实现。性能优异,速度快。整个分词包易于使用,测试覆盖率高。 在线展示 :链接 ,您可以自己测试它的功能。有任何问题,可以发邮件至: 。 分词歧义解决方案 分词的方法有很多,现
  3. 所属分类:其它

    • 发布日期:2021-02-05
    • 文件大小:14680064
    • 提供者:weixin_42097533
  1. 使用 Node.js 对文本内容分词和关键词抽取

  2. 在讨论技术前先卖个萌,吃货的世界你不懂~~ 众成翻译的文章有 tag,用户可以基于 tag 来快速筛选感兴趣的文章,文章也可以依照 tag 关联来进行相关推荐。但是现在众成翻译的 tag 是在推荐文章的时候设置的,都是英文的,而且人工设置难免不规范和不完全。虽然发布文章后也可以人工编辑,但是我们也不能指望用户或管理员能够时时刻刻编辑出恰当的 tag,所以我们需要用工具来自动生成 tag。 在现在开源的分词工具里面,jieba是一个功能强大性能优越的分词组件,更幸运地是,它有 node 版本。
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:116736
    • 提供者:weixin_38739101
« 12 3 4 5 6 7 8 »