您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. SVM文本分类器源程序,英文界面,包含语料,没有解压缩密码

  2. 498705SVM.rar SVM文本分类器源程序,英文界面,包含语料,没有解压缩密码
  3. 所属分类:其它

    • 发布日期:2009-05-13
    • 文件大小:640000
    • 提供者:JiaoYanMa_3AZZK
  1. 自动文本分类中的机器学习(英文)

  2. 介绍了文本分类中的机器学习算法(无监督),广泛使用于文本分类、信息检索系统。
  3. 所属分类:其它

    • 发布日期:2009-05-31
    • 文件大小:430080
    • 提供者:wangying
  1. Web文本分类中的几种阈值策略分析与比较

  2. 本文主要针对中文网页,分析比较了文本分类中的关于类别阈值的几种策略,分别是: 位置截尾法(RCut)、比例截尾法(PCut)、最优截尾法(SCut)以及改进型截尾法(RTCut),主要实验结果有: RTCut的效果最佳;PCut具有一定的复杂度,不适合在线文本处理;SCut具有一定的不稳定性;而Rcut性能最差, 并且使用英文文本和中文文本评测这几种阈值策略的结果是一致的。
  3. 所属分类:Web开发

    • 发布日期:2009-09-06
    • 文件大小:123904
    • 提供者:lizijiu999
  1. 中文文本分类中特征抽取方法的比较研究.pdf

  2. 本文比较研究了在中文文本分类中特征选取方法对分类效果的影响。考察了文档频率 DF、 信息增 益 IG、 互信息 MI、 χ2 分布 CHI四种不同的特征选取方法。采用支持向量机(SVM)和 KNN 两种不同的分类 器以考察不同抽取方法的有效性。实验结果表明 ,在英文文本分类中表现良好的特征抽取方法( IG、 MI和 CHI)在不加修正的情况下并不适合中文文本分类。文中从理论上分析了产生差异的原因 ,并分析了可能的 矫正方法包括采用超大规模训练语料和采用组合的特征抽取方法。最后通过实验验证组合特
  3. 所属分类:专业指导

    • 发布日期:2009-12-06
    • 文件大小:348160
    • 提供者:shiyoumaomao
  1. svmcls文本分类程序(含C++源代码+语料库)完整版

  2. svmcls 2.0文本自动分类器支持中文和英文文档,特征选择方式包括全局和按类别选取,概率估算方法支持基于文档(布尔)统计和基于词频统计,支持三种特征加权方式,特征评估函数包括信息增益、互信息、期望交叉熵、X^2统计,文本证据权重,右半信息增益,分类方法包括支持向量机SVM和K近邻KNN,由李荣陆老师于2004年开发完成。 网上流传很多版本的svmcls文本分类程序,但几乎全部都是不能编译通过的,有些是缺少xercesc文件夹,有些是缺少xerces-c_2_2_0D.dll,有些是缺少分词
  3. 所属分类:C

    • 发布日期:2010-04-30
    • 文件大小:19922944
    • 提供者:moxibingdao
  1. 中文文本分类中特征抽取方法的比较研究

  2. 本文比较研究了在中文文本分类中特征选取方法对分类效果的影响。考察了文档频率DF、信息增益IG、互信息MI、V2 分布CHI 四种不同的特征选取方法。采用支持向量机(SVM) 和KNN 两种不同的分类器以考察不同抽取方法的有效性。实验结果表明, 在英文文本分类中表现良好的特征抽取方法( IG、MI 和CHI) 在不加修正的情况下并不适合中文文本分类。文中从理论上分析了产生差异的原因, 并分析了可能的矫正方法包括采用超大规模训练语料和采用组合的特征抽取方法。最后通过实验验证组合特征抽取方法的有效性
  3. 所属分类:专业指导

    • 发布日期:2010-09-02
    • 文件大小:244736
    • 提供者:guofeng314
  1. SVMCLS 文本自动分类器(可编译Release完整版)--李荣陆

  2. 之前的最好资源描述如下: svmcls 2.0文本自动分类器支持中文和英文文档,特征选择方式包括全局和按类别选取,概率估算方法支持基于文档(布尔)统计和基于词频统计,支持三种特征加权方式,特征评估函数包括信息增益、互信息、期望交叉熵、X^2统计,文本证据权重,右半信息增益,分类方法包括支持向量机SVM和K近邻KNN,由李荣陆老师于2004年开发完成。 网上流传很多版本的svmcls文本分类程序,但几乎全部都是不能编译通过的,有些是缺少xercesc文件夹,有些是缺少xerces-c_2_2_0
  3. 所属分类:C

    • 发布日期:2010-09-21
    • 文件大小:9437184
    • 提供者:superyangtze
  1. 文本分类文档预处理(英文)

  2. 简单的文本预处理程序,将输入文档去掉数字(不包含字母的字符串),去掉停用词,去掉标点符号,生成基本可用的词库(保留下的基本都是有意义的特征)。便于之后用支持向量机或者决策树等进行文本分类处理等。
  3. 所属分类:C++

    • 发布日期:2013-08-14
    • 文件大小:4096
    • 提供者:camelia1989
  1. 朴素贝叶斯文本分类

  2. 针对Newsgroup20数据集,基于朴素贝叶斯的英文文本分类程序 具体实现实际参考了网上一个博客啦…… Java语言
  3. 所属分类:Java

    • 发布日期:2014-05-31
    • 文件大小:10240
    • 提供者:why_coding
  1. 文本分类系统

  2. TextClassify文本分类系统适用于中文,英文文本分类。 包括各个文本的关键词输出,可以控制关键词输出个数,也可以对关键词加入黑名单和白名单。 关于TextClassify文本分类系统的改进: 改进jieba中文分词词典 改进黑名单:增加停用词 改进白名单:增加专业词 在TextProcess改进每一类text至多选FileInFolder个:理论上越多越好 deleteN的选取:可以优化 特征词的长度限定:unicode不过长,不过短 特征词词典dict_size的选取:可以优化 特征
  3. 所属分类:Python

    • 发布日期:2014-06-17
    • 文件大小:1048576
    • 提供者:lining0806
  1. 斯坦福大学文本分类课件PPT

  2. 斯坦福大学自然语言处理的相关课件,英文版本,里面介绍了文本分类知识,学习文本分类的同学可以将此作为参考的教程。
  3. 所属分类:讲义

    • 发布日期:2014-12-15
    • 文件大小:2097152
    • 提供者:u012894462
  1. reuters-21578

  2. reuters-21578,这是一个英文的语料库,可以用于进行文本的分类与聚类。是文本分类领域共用的一个语料库。
  3. 所属分类:其它

    • 发布日期:2014-12-25
    • 文件大小:7340032
    • 提供者:tuobadon
  1. 英文文本单词分类排序

  2. 较大的英文文本的单词分类与排序,效率非常高
  3. 所属分类:C

    • 发布日期:2015-12-02
    • 文件大小:2097152
    • 提供者:tonyok1234567
  1. 英文文本分类和聚类的语料

  2. 这是用于分类,聚类的英文文本语料20_newsgroups
  3. 所属分类:专业指导

    • 发布日期:2008-12-09
    • 文件大小:16777216
    • 提供者:u010955036
  1. 【数据挖掘/机器学习/文本分类】2000~2019年英文文献摘要数据集,16类,每类100篇

  2. 本数据集为2000~2019年大部分英文文献摘要集合的子集,分agriculture、anatomy、business、chemistry、economics、education、geology等十六类。 每条数据由五部分组成:序号、分类、文献名称、摘要、期刊名称。 注意是英文!!!摘要!!! 可用于数据挖掘等工程。 具体应用可参考博客:https://blog.csdn.net/erwugumo/article/details/104610584 请使用python进行数据分析。
  3. 所属分类:机器学习

    • 发布日期:2020-03-14
    • 文件大小:661504
    • 提供者:erwugumo
  1. 文本情感色彩分类技术报告.pdf

  2. python文本情感色彩分析的技术报告(英文文本),对应的代码也已经上传。需要的朋友可以下载后参考一下。希望可以帮到有需要的小伙伴。
  3. 所属分类:机器学习

    • 发布日期:2020-06-08
    • 文件大小:786432
    • 提供者:leilei7407
  1. 基于深度学习的文本分类6大算法.rar

  2. 收集的文本分类深度学习算法,包括TextCNN,BI-LSTM,RCNN,Bert等经典深度学习文本分类英文论文。
  3. 所属分类:深度学习

    • 发布日期:2020-10-16
    • 文件大小:2097152
    • 提供者:bean435
  1. 使用pytorch和torchtext进行文本分类的实例

  2. 文本分类是NLP领域的较为容易的入门问题,本文记录我自己在做文本分类任务以及复现相关论文时的基本流程,绝大部分操作都使用了torch和torchtext两个库。 1. 文本数据预处理 首先数据存储在三个csv文件中,分别是train.csv,valid.csv,test.csv,第一列存储的是文本数据,例如情感分类问题经常是用户的评论review,例如imdb或者amazon数据集。第二列是情感极性polarity,N分类问题的话就有N个值,假设值得范围是0~N-1。 下面是很常见的文本预处理流
  3. 所属分类:其它

    • 发布日期:2020-12-23
    • 文件大小:102400
    • 提供者:weixin_38706603
  1. TextClassify2:多算法综合的文本分类系统-源码

  2. 多算法的文本分类系统 更多详见 关于分词 英文分词,采用nltk工具包进行分词 pip install nltk 中文分词,采用jieba工具包进行分词 pip install jieba jieba分词 dict 主词典文件 user_dict 用户词典文件,即分词白名单 user_dict为分词白名单 如果添加的过滤词(包括黑名单和白名单)无法正确被jieba正确分词,则需要添加的单词和词频加入到主字典dict文件中或者用户词典user_dict,一行一个(词频也可省略)
  3. 所属分类:其它

    • 发布日期:2021-03-11
    • 文件大小:1048576
    • 提供者:weixin_42099814
  1. text-cnn:嵌入Word2vec词向量的CNN中文文本分类-源码

  2. 使用CNN和Word2vec进行文本分类 本文是参考gaussic大牛的“ text-classification-cnn-rnn”后,基于同样的数据集,嵌入词级别操作的CNN文本分类实验结果,gaussic大牛是基于字符级的;进行了第二版的更新:1。加入不同的卷积核; 2。加入正则化; 3。词唯一的中文或英文,删除掉文本中数字,符号等类型的词; 4。删除长度为1的词训练结果较第一版有所提升,验证集准确率从96.5%达到97.1%,测试准确率从96.7%达到97.2%。 本实验的主要目是为了探索
  3. 所属分类:其它

    • 发布日期:2021-02-06
    • 文件大小:16410356
    • 提供者:weixin_42175035
« 12 3 4 5 6 7 8 »