您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. C++中文分词+自动标引范例

  2. 1、合并使用停用词表和关键词表作为分词词表,应用逆向最长匹配法对所有篇名分词,给出每条篇名对应的分词结果。在屏幕上显示篇名序号、篇名、分词结果。 2、去除停用词(显示在屏幕上)。 3、利用tfx词频加权公式,计算各词的权重,在屏幕上显示每条篇名中各词的权重。 4、根据输入的阈值,确定标引词,并在屏幕上显示标引词。 5、根据输入的标引深度,确定标引词,并在屏幕上显示标引词。
  3. 所属分类:C++

    • 发布日期:2009-12-10
    • 文件大小:956416
    • 提供者:xutaozero21
  1. 基于相邻词的中文关键词自动抽取

  2. 请先下载CAJ阅读器 对于单编文档d自动提取关键词的算法如下所述; 1 使用基于词典的正向最小分词算法对文档进行分词。 2统计出文档d中每个词t在d中的TF,并将每个词在d中的权重Wt.....
  3. 所属分类:其它

    • 发布日期:2010-11-09
    • 文件大小:73728
    • 提供者:qdfch
  1. JS中文分词系统——用网页来实现

  2. 在网页中用JS来实现中文分词系统,而且计算出各个关键词的权重和它的tf df值。
  3. 所属分类:Javascript

    • 发布日期:2010-12-15
    • 文件大小:14336
    • 提供者:xiaojinggao24
  1. 基于文本集密度的特征词选择与权重计算方法

  2. 数据挖掘文献,分词权重计算
  3. 所属分类:专业指导

    • 发布日期:2008-03-24
    • 文件大小:192512
    • 提供者:linseng129
  1. 基于层次特征词权重的文本分类方法

  2. 基于层次特征词权重的文本分类方法
  3. 所属分类:专业指导

  1. 一种特征词权重调整算法的研究

  2. 一种特征词权重调整算法的研究
  3. 所属分类:其它

  1. tfi-df计算特征词权重代码

  2. 这是一个tfi-df程序,实现文本特征词的权重计算。
  3. 所属分类:C++

    • 发布日期:2012-03-01
    • 文件大小:1048576
    • 提供者:yxj6073
  1. 基于lucene.net和盘古分词的搜索

  2. 前几天项目需要做一个站内需求,做了一个sql全文检索,老板不满意,没有办法就上网搜了一下,看到了Lucene,可是不会java,只会C,最后才发下有.net的版本,小小的研究一下看着参考文档,做了一个简单的代码,自己把学习的注释写的非常清楚,希望自己以后看的时候能清楚(PS:自己很健忘的),在朋友的推荐下,知道有个盘古分词,就小小的弄一下,花了一天的时间写了这个简单的东西,希望大家能够喜欢!等以后项目部署好了,会上传完整的版本!
  3. 所属分类:C#

    • 发布日期:2013-08-13
    • 文件大小:1048576
    • 提供者:p710330399
  1. 分词算权重例子

  2. ik分词算权重例子
  3. 所属分类:Java

    • 发布日期:2013-12-13
    • 文件大小:2048
    • 提供者:cjjhqm
  1. 遗忘算法(词库生成、分词、词权重)演示程序.rar

  2. 遗忘算法演示程序及源码,功能包括词库生成、分词、词权重计算。是CSDN博文《非主流自然语言处理——遗忘算法系列》的配套资源。作者老憨欢迎交流讨论。
  3. 所属分类:C#

    • 发布日期:2015-11-27
    • 文件大小:36700160
    • 提供者:gzdmcaoyc
  1. 遗忘算法(词库生成、分词、词权重)演示程序.rar

  2. 遗忘算法演示程序及源码,功能包括词库生成、分词、词权重计算。是CSDN博文《非主流自然语言处理——遗忘算法系列》的配套资源。作者老憨欢迎交流讨论。
  3. 所属分类:C#

    • 发布日期:2015-12-02
    • 文件大小:36700160
    • 提供者:somehow1002
  1. KNN文本分类中特征词权重算法的研究

  2. KNN文本分类中特征词权重算法的研究 机器学习
  3. 所属分类:其它

    • 发布日期:2016-01-26
    • 文件大小:1048576
    • 提供者:lindanzhu
  1. java实现中文分词simhash算法

  2. simhash算法对字符串计算权重时,对中文要做特殊操作,及先分词,请自行下载sanford中文分词jar包及中文分词库
  3. 所属分类:Java

    • 发布日期:2017-10-12
    • 文件大小:3072
    • 提供者:qq_25237355
  1. python 基于 wordcloud + jieba + matplotlib 生成词云

  2. 从txt文本里提取关键词,渲染制作图云 本案例基于python3.6, 相关模块如下,安装都是直接 pip install : wordcloud 作用如其名。本例核心模块,它把我们带权重的关键词渲染成词云 matplotlib 绘图模块,主要作用是把wordcloud生成的图片绘制出来并在窗口展示 numpy 图像处理模块,读取图片生成像素矩阵 PIL (pip install pillow) 图片处理模块, 打开初始化图片 jieba 牛逼的分词模块,因为我是从一个txt文本里提取关键词,
  3. 所属分类:Python

    • 发布日期:2017-11-24
    • 文件大小:3072
    • 提供者:aowoolf
  1. 中文词库(120万带IDF权重)

  2. 其于原有20万带IDF权重的词典,经过去重,增加,合并后成了120万; 线上系统正在使用中,非常不错; 后面我会将常用度量的也加上。最终形成超全的词库
  3. 所属分类:算法与数据结构

    • 发布日期:2018-01-01
    • 文件大小:15728640
    • 提供者:iikent
  1. 遗忘算法(词库生成&分词&词权重)演示程序(可直接运行)

  2. 遗忘算法(词库生成&分词&词权重)演示程序(可直接运行)
  3. 所属分类:机器学习

    • 发布日期:2018-03-21
    • 文件大小:45088768
    • 提供者:u012469528
  1. 遗忘算法演示程序(包含词库生成、分词、词权重)C#源码详细介绍

  2. 遗忘算法演示程序(包含词库生成、分词、词权重)C#源码详细介绍
  3. 所属分类:机器学习

    • 发布日期:2018-05-13
    • 文件大小:45088768
    • 提供者:u014556723
  1. 遗忘算法(词库生成、分词、词权重)演示程序 词权重计算.zip

  2. 遗忘算法(词库生成、分词、词权重)演示程序 词权重计算。 遗忘算法(词库生成、分词、词权重)演示程序。 遗忘算法演示程序及源码,功能包括词库生成、分词、词权重计算。是CSDN博文《非主流自然语言处理——遗忘算法系列》的配套资源。作者老憨欢迎交流讨论。 自然语言处理遗忘算法
  3. 所属分类:C#

    • 发布日期:2019-05-28
    • 文件大小:37748736
    • 提供者:nui111
  1. 一种语音识别中核心词快速模型优化方法

  2. 针对国网客服电话语音识别在特定领域核心词识别效果差的问题,提出一种基于HCLG领域词权重增强和领域词纠正的方法,能够实时并快速地添加领域词,从而动态地优化语言模型,提升语音识别效果。将该模型和算法优化应用在国网客服中心电话语音的咨询、维修、投诉等各种领域场景中,其语音识别结果都得到大幅改善。
  3. 所属分类:其它

    • 发布日期:2020-10-15
    • 文件大小:226304
    • 提供者:weixin_38656463
  1. Python自然语言处理的textrank文本分析,循环绘制分院各教授研究方向和兴趣的词云图.zip

  2. (粉丝可下载)为了研究某分院教师的学术成果、研究兴趣、研究方向,我们以广西师范大学的两个分院教师在知网所发表论文的摘要数据分析学术成果、关键词数据分析研究方向、研究方向文本数据分析研究方向,具体用textrank算法计算出研究方向词权重,根据词权重绘制词云图进行文本分析。具体绘制教师论文摘要数据权重最高的40个词的词云图,并输出各教师的基本信息,根据结果我们发现各教授的基本信息与词云图文本高度一致,可见分词的效果非常好,可以分析出各分院教师的学术成果、研究兴趣、研究方向。
  3. 所属分类:Python

    • 发布日期:2021-03-12
    • 文件大小:9437184
    • 提供者:weixin_45934622
« 12 3 4 5 6 7 8 9 10 »