您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. lucene3庖丁解牛中文分词器

  2. 支持lucene3的庖丁解牛分词器和字典,可直接调用
  3. 所属分类:Java

    • 发布日期:2011-12-13
    • 文件大小:1048576
    • 提供者:mer1234567
  1. 中文分词_最大匹配法

  2. 中文分词(C语言实现),利用数据字典实现的中文句子分词,如,我爱我的祖国,分词后,我爱/我的/祖国.
  3. 所属分类:C++

    • 发布日期:2012-01-13
    • 文件大小:1048576
    • 提供者:lhy046510
  1. 中文分词字典

  2. 中文分词字典
  3. 所属分类:Java

    • 发布日期:2013-04-13
    • 文件大小:506880
    • 提供者:mark063
  1. Lucene.net 盘古分词字典管理

  2. 这是Pangu分词,可以很清楚的看到分词效果,协助创建索引中文分词效果,还可以进行字典管理,打开release里面的demo.exe直接可以用,字典都在里面
  3. 所属分类:C#

    • 发布日期:2013-04-25
    • 文件大小:1048576
    • 提供者:fangmenglong12
  1. 盘古中文分词 字典文件

  2. 盘古中文分词 字典文件 刚才上传分词组件忘记传字典了
  3. 所属分类:C#

    • 发布日期:2014-03-09
    • 文件大小:1048576
    • 提供者:lishengli6846
  1. Python中文分词_中文分词软件

  2. Python中文分词_中文分词软件,使用jieba字典
  3. 所属分类:Python

    • 发布日期:2014-11-14
    • 文件大小:628
    • 提供者:liulei9585
  1. 中文分词技术

  2. c#开发的winform项目,网上搜集的资料。基于.net2.0的轻量级分词组件,分词效率和准确性都较高。KTDictSeg 简介: KTDictSeg 是由KaiToo搜索开发的一款基于字典的简单中英文分词算法
  3. 所属分类:C#

    • 发布日期:2015-03-17
    • 文件大小:3145728
    • 提供者:txy395354170
  1. 实现分词功能和使用fudanNLP

  2. 中文分词,研究fudanNLP,使用字典或者基于统计
  3. 所属分类:Java

    • 发布日期:2015-03-17
    • 文件大小:30408704
    • 提供者:ps_cd_sc
  1. THINKPHP 中文分词处理类

  2. 将军今天继续分享一款中文分词类库,无需其他扩展组件支持,这个类库基本能满足日常的分词,当然更精准的分词那你还是老老实实去研究分词算法和相关扩展吧。这个类库最重要一点,就是支持中文分词。 废话不多说,来说说如何使用。 首先下载类库压缩包,解压缩。里面只有两个文件,一个是dict.csv,即分词字典。一个是SplitWord.class.php,这个是分词的类库文件。将两个文件同时复制到核心扩展ORG目录或者项目的ORG目录.确保两个文件在同一目录下。 第二步,在action里编写代码如下: 1.
  3. 所属分类:PHP

    • 发布日期:2015-03-26
    • 文件大小:8388608
    • 提供者:junlexian
  1. 中文分词词库

  2. 分词词库字典,主要为百度中文分词,主要用于中文jieba分词的自定义词典,或者其他分词工具的自定义词典等。
  3. 所属分类:算法与数据结构

    • 发布日期:2017-09-20
    • 文件大小:8388608
    • 提供者:qq_39308905
  1. 拼音加加中文词库以及各行业扩充词库(txt中文分词字典)

  2. 拼音加加中文词库以及各行业扩充词库(txt中文分词字典)
  3. 所属分类:专业指导

    • 发布日期:2009-04-16
    • 文件大小:1048576
    • 提供者:u012092630
  1. 中文分词字典,整理242764个词语

  2. 中文分词字典,整理242764个词语,由网上众多辞典拼合并过滤重复词语而来,需要的朋友可以下载去看看。
  3. 所属分类:专业指导

    • 发布日期:2009-04-16
    • 文件大小:1048576
    • 提供者:matrixbbs
  1. 全新整理中文分词字典,242764个中文词语

  2. 全新整理中文分词字典,242764个中文词语。均由网上搜集中文辞典整理合并而来,过滤掉了重复的词语。有需要的朋友可以下载去看看。
  3. 所属分类:专业指导

    • 发布日期:2009-04-16
    • 文件大小:1048576
    • 提供者:tuweifus
  1. 中文分词字典

  2. 中文分词词库,格式如下: 00000001 李 168 n 00000002 李浩 133 nr2 00000003 互联网式 121 b ...
  3. 所属分类:其它

    • 发布日期:2018-05-16
    • 文件大小:7340032
    • 提供者:i_c_java_
  1. 中文分词器工具包下载(配置+Jar包)

  2. IK配置+两个Jar包,实现与Solr 7.2.1版本的对接,对中文语句进行分词处理,可自行扩展词库字段ext.dict以及停止词字典dict
  3. 所属分类:Web开发

    • 发布日期:2018-02-06
    • 文件大小:1048576
    • 提供者:appleyk
  1. 中文分词 词库 分次字典

  2. 中文分词 词库 分次字典 中文分词 词库 分次字典
  3. 所属分类:专业指导

    • 发布日期:2009-11-23
    • 文件大小:62464
    • 提供者:xuhaifan
  1. npartword:golang分布式中文分词系统-源码

  2. npw介绍 npw:npartword,golang实现中文分词系统,主体分词逻辑有两个部分。 1.初步树查找字典,通过disctance或mmseg算法过滤分词 2.维特比算法解隐马尔可夫模型,对词进行隐状态标注分词 3.加入情感词典,文本情感分类算法,对文本进行情感评分,如积极,消极,否定等,一般分值越来越文本的积极性发生 分词服务系统的实现,通过nmid的worker方式实现。 1.分词系统服务端,需要实现nmid的工人,服务的实现十分简单,无需考虑通信问题,这些nmid解决。 2.
  3. 所属分类:其它

    • 发布日期:2021-03-11
    • 文件大小:6291456
    • 提供者:weixin_42151305
  1. 麻将:开源中文分词工具包,中文分词Web API,Lucene中文分词,中英文混合分词-源码

  2. 麻将中文分词 简介 麻将一直是广受欢迎的传统娱乐活动,字牌的组合千变万化。汉字的组合也是变化多端,麻将这个项目希望能从汉字组合中发现汉语的秘密,为自然语言处理提供好的中文分词工具。 麻将是基于Scala的语言实现的中文分词软件包。这个项目的核心是最大概率分词,整个项目专为搜索引擎,文本信息抽取和自然语言处理设计,参考我来实现。性能优异,速度快。整个分词包易于使用,测试覆盖率高。 在线展示 :链接 ,您可以自己测试它的功能。有任何问题,可以发邮件至: 。 分词歧义解决方案 分词的方法有很多,现
  3. 所属分类:其它

    • 发布日期:2021-02-05
    • 文件大小:14680064
    • 提供者:weixin_42097533
  1. segmentit:任何JS环境可用的中文分词包,来自leizongminnode-segment的叉子-源码

  2. 中文分词模块 本模块基于魔改,增加了电子,浏览器支持,并准备针对电子多线程运行环境进行优化。 之所以要花时间魔改,是因为segment和nodejieba虽然在节点环境下很好用,但根本无法在浏览器和电子环境下运行。我把代码插入为ES2015,并用babel插件内联了字典文件,全部加载的话大小是3.8M,但如果有些字典你并不需要,字典和模块是支持tree shake的(请使用ESM模块)。 用法 import { Segment , useDefault } from 'segmentit' ;
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:1048576
    • 提供者:weixin_42117224
  1. jieba-php:“结巴”中文分词:做最好PHP。PHP中文分词,中文断词组件。“ Jieba”(中文为“ to stutter”)中文文本分割:构建为最佳PHP中文单词分割模块-源码

  2. “结巴”中文分词:做最好PHP中文分词,中文断词组件,当前翻译版本为jieba-0.33版本,未来再慢慢往上升级,效能也需要再改善,请有兴趣的开发者一起加入开发!若想使用Python版本请前往 现在已经可以支持繁体中文!只要将字典切换为big模式即可! “ Jieba”(中文为“ to stutter”)中文文本分割:内置为最好PHP中文单词分割模块。 向下滚动以获取英文文档。 线上展示 网站网址: : 网站原始码: : 特征 支持三种分词模式: 1)最小精确模式,试图将句子最精确地
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:20971520
    • 提供者:weixin_42137028
« 12 3 4 5 »