您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. Lucene中文分词器包

  2. 来自“猎图网 www.richmap.cn”基于IKAnalyzer分词算法的准商业化Lucene中文分词器。1. 正向全切分算法,42万汉字字符/每秒的处理能力(IBM ThinkPad 酷睿I 1.6G 1G内存 WinXP)2. 对数量词、地名、路名的优化处理3. 对未知词汇采用自识别结合二元切分算法,确保搜索召回率(使用方法请参考IKAnalyzer V1.1版)
  3. 所属分类:其它

    • 发布日期:2007-08-14
    • 文件大小:873472
    • 提供者:linliangyi2006
  1. JE中文分词je-analysis-1.5.1.jar

  2. 1.5.1 —— 2006-01-22 修正细粒度分词错误的问题 1.5.0 —— 2007-01-18 全面支持Lucene 2.0 增强了词典维护的API 增加了商品编码的匹配 增加了Mail地址的匹配 实现了词尾消歧算法第二层的过滤 整理优化了词库 1.4.0 —— 2006-08-21 增加词典的动态扩展能力 1.3.3 —— 2006-07-23 修正无法多次增加词典的问题 1.3.2 —— 2006-07-03 修正细粒度分词错误的问题 1.3.1 —— 2006-0 6-23 修
  3. 所属分类:其它

    • 发布日期:2009-04-28
    • 文件大小:891904
    • 提供者:tiancen2001
  1. 支持lucene的词典机械中文分词

  2. 采用反向机械分词算法。 对数字、英文进行特别的处理。 支持中英文数字混合词的处理。 分词速度快。
  3. 所属分类:其它

    • 发布日期:2009-05-14
    • 文件大小:18432
    • 提供者:wolffool
  1. C++中文分词+自动标引范例

  2. 1、合并使用停用词表和关键词表作为分词词表,应用逆向最长匹配法对所有篇名分词,给出每条篇名对应的分词结果。在屏幕上显示篇名序号、篇名、分词结果。 2、去除停用词(显示在屏幕上)。 3、利用tfx词频加权公式,计算各词的权重,在屏幕上显示每条篇名中各词的权重。 4、根据输入的阈值,确定标引词,并在屏幕上显示标引词。 5、根据输入的标引深度,确定标引词,并在屏幕上显示标引词。
  3. 所属分类:C++

    • 发布日期:2009-12-10
    • 文件大小:956416
    • 提供者:xutaozero21
  1. MFC查词典、分词、词频统计程序

  2. MFC查词典、分词、词频统计程序,可用!
  3. 所属分类:C++

    • 发布日期:2010-02-03
    • 文件大小:931840
    • 提供者:lgj8617
  1. 中科院分词器ICTCLAS

  2. 中科院语义分词 ICTCLAS 中科院官方于2009年2月19日发布了中科院中文分词器ICTCLAS2009版,转引官方介绍说明,新版本的中文分词系统在原有的基础上主要完善的有: 1、用户词典接口扩展 用户可以动态增加、删除用户词典中的词,调节分词的效果。提高了用户词典使用的灵活性。 2、分词粒度可调 可以控制分词结果的粒度。共享版本提供两种分词粒度,标准粒度和粗粒度,满足不同用户的需求。 3、词性标注功能加强 多种标注级的选择,系统可供选择的标注级有:计算所一级标注级,计算所二级标注集,北大
  3. 所属分类:Web开发

    • 发布日期:2012-03-08
    • 文件大小:2097152
    • 提供者:abing79
  1. 搜索引擎solr环境配置、分词及索引操作

  2. 搜索引擎solr环境配置、分词及索引操作
  3. 所属分类:Java

    • 发布日期:2012-04-09
    • 文件大小:224256
    • 提供者:woshi90sunshan
  1. 中文分词服务器3.3

  2. 软件名称:百万商业圈简易中文分词服务器 作者:百万商业圈 版本:3.2(目前最新单线程服务器版,支持并发) 具体使用时可将 bwsyq.com.dat 放在分词服务器相同的目录即可 使用前请先启动分词服务器 分词服务器程序既是一个windows 服务程序, 服务名称是:bwsyq fenci service and serve 0.1 (百万商业圈中文分词服务器) 同时又是一个简单的webserver安装启动后,你可以直接在浏览器中输入 http://127.0.0.1:888 进行使用 同时
  3. 所属分类:其它

    • 发布日期:2013-09-02
    • 文件大小:6291456
    • 提供者:yefengying
  1. 织梦分词库

  2. 网站建设必备关键字词库,内包含10万条关键词、分词,每行一个,通用csv格式
  3. 所属分类:PHP

    • 发布日期:2014-05-23
    • 文件大小:676864
    • 提供者:wang27lei
  1. 基于cygwin平台的检索分词实验

  2. 基于cygwin平台的检索分词实验
  3. 所属分类:其它

    • 发布日期:2014-10-26
    • 文件大小:2048
    • 提供者:hey_ya
  1. 藏拙简易中文分词服务器源代码及词库

  2. 软件名称:藏拙简易中文分词服务器 作者:藏拙 具体使用时可将 cangzhuo.dat 放在分词服务器相同的目录即可 使用前请先启动分词服务器 分词服务器程序既是一个windows 服务程序, 服务名称是:cangzhuo fenci service and serve 0.1 (藏拙中文分词服务器) 同时又是一个简单的webserver安装启动后,你可以直接在浏览器中输入 http://127.0.0.1:888 进行使用 同时又还是一个Scoket server 通信端口是 888. 分词
  3. 所属分类:Web开发

    • 发布日期:2009-02-18
    • 文件大小:1048576
    • 提供者:u012960424
  1. 中文分词服务器源代码及词库

  2. 软件名称:藏拙简易中文分词服务器 作者:藏拙 具体使用时可将 cangzhuo.dat 放在分词服务器相同的目录即可 使用前请先启动分词服务器 分词服务器程序既是一个windows 服务程序, 服务名称是:cangzhuo fenci service and serve 0.1 (藏拙中文分词服务器) 同时又是一个简单的webserver安装启动后,你可以直接在浏览器中输入 http://127.0.0.1:888 进行使用 同时又还是一个Scoket server 通信端口是 888. 分词
  3. 所属分类:Web开发

    • 发布日期:2009-02-18
    • 文件大小:1048576
    • 提供者:xuying198702
  1. 中文分词服务器源代码及词库

  2. 软件名称:藏拙简易中文分词服务器 作者:藏拙 具体使用时可将 cangzhuo.dat 放在分词服务器相同的目录即可 使用前请先启动分词服务器 分词服务器程序既是一个windows 服务程序, 服务名称是:cangzhuo fenci service and serve 0.1 (藏拙中文分词服务器) 同时又是一个简单的webserver安装启动后,你可以直接在浏览器中输入 http://127.0.0.1:888 进行使用 同时又还是一个Scoket server 通信端口是 888. 分词
  3. 所属分类:Web开发

    • 发布日期:2009-02-18
    • 文件大小:1048576
    • 提供者:mysqlyao
  1. 学术论文————一种改进的汉语分词算法

  2. 这是关于分词算法的一篇论文,我感觉不错,想与大家一起分享
  3. 所属分类:其它

    • 发布日期:2009-02-23
    • 文件大小:155648
    • 提供者:happy_flight
  1. java版本结巴分词

  2. java版本结巴分词。添加了自定义分词、阻止词、分词词性等。
  3. 所属分类:Java

    • 发布日期:2018-03-13
    • 文件大小:4194304
    • 提供者:u012050821
  1. lucene中文分词工具包

  2. IKAnalyzer 是一个开源的,基于java语言开发的轻量级的中文分词工具包,将一段文字进行IK分词处理一般经过:词典加载、预处理、分词器分词、歧义处理、善后结尾 五个部分
  3. 所属分类:Web开发

    • 发布日期:2018-05-10
    • 文件大小:1048576
    • 提供者:weixin_39268520
  1. 遗忘算法演示程序(包含词库生成、分词、词权重)C#源码详细介绍

  2. 遗忘算法演示程序(包含词库生成、分词、词权重)C#源码详细介绍
  3. 所属分类:机器学习

    • 发布日期:2018-05-13
    • 文件大小:45088768
    • 提供者:u014556723
  1. python之中文分词

  2. 目录 1、安装和使用jieba 2、分词练习 3、为jieba添加自定义的词典 4、知识点普及 1)分词文件怎么写 2)jieba.cut()参数说明 5、搜索引擎模式 1、安装和使用jieba 直接用命令:pip3 install jieba就可以了,如图所示表示成功。 2、分词练习 import jieba if __name__ == '__main__': seg_gu=jieba.cut(故宫的重要景点:乾清宫, cut_all=False) print(Full
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:65536
    • 提供者:weixin_38536397
  1. 第三章 3、1 文本预处理之分词(Word Segmentation)

  2. 一、大纲总览 1、tough资料:各类文本等的输入。 2、分词。好的分词算法很重要。 3、文本预处理。 4、标准化:单词的时态,单复数。都转换为最原始的。这时还是字符串。 5、特征提取:向量表示,thidf算法,w2w,seq2seq算法等等。 6、模型:向量有了,然后就是根据算法去匹配。 二、分词 可以直接用的分词工具。 1、分词算法之最大匹配 向前最大匹配、向后最大匹配、双向最大匹配(不讲) 向前最大匹配 1、首先输入一个句子,已知后建好的词典库,设置好窗口值(5) 2、窗口从第一个汉字
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:2097152
    • 提供者:weixin_38705873
  1. python中文分词库jieba使用方法详解

  2. 安装python中文分词库jieba 法1:Anaconda Prompt下输入conda install jieba 法2:Terminal下输入pip3 install jieba 1、分词 1.1、CUT函数简介 cut(sentence, cut_all=False, HMM=True) 返回生成器,遍历生成器即可获得分词的结果 lcut(sentence) 返回分词列表 import jieba sentence = '我爱自然语言处理' # 创建【Tokenizer.cut 生成器
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:107520
    • 提供者:weixin_38707356
« 12 3 4 5 6 7 8 9 10 ... 50 »