您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. 哈尔滨工业大学海量分词

  2. 哈工大提供的分词系统 哈尔滨工业大学海量分词源代码
  3. 所属分类:专业指导

    • 发布日期:2009-09-27
    • 文件大小:7340032
    • 提供者:yangjing871212
  1. 中文词语分析一体化系统

  2. 当前主要的中文词语分析系统 哈工大统计分词系统 自动化所三元统计模型 清华大学SEGTAG系统 词典中的每一个重要的词都加上了切分标志 无条件切出qk类词;完全切分ck类词;其他无交叉歧义的切之,否则全切分。 "动态规划"和"全切分搜索+叶子评价"
  3. 所属分类:专业指导

    • 发布日期:2010-04-20
    • 文件大小:381952
    • 提供者:hovany
  1. C# .Net 写的中文分词

  2. C# .Net 写的中文分词 哈工大中文信息处理
  3. 所属分类:C#

    • 发布日期:2012-10-31
    • 文件大小:184320
    • 提供者:yulingtianxia
  1. 中文分词-哈工大软件学院中文信息处理刘秉权

  2. 中文分词 哈工大 软件学院 中文中文信息处理 java
  3. 所属分类:Java

    • 发布日期:2012-11-17
    • 文件大小:3145728
    • 提供者:sunchuanleihit
  1. 自然语言分词程序源码

  2. 哈工大ITP Java 实现的自然语言 中文分词 程序源码
  3. 所属分类:Java

    • 发布日期:2014-08-23
    • 文件大小:913408
    • 提供者:azurezk
  1. NLPIR分词、去停用词

  2. 整合 使用ICTCLAS2013(NlPIR) x64 的中文分词,分词的速度和效果都不错。然后就是对文本进行的去停用词以及特殊符号(哈工大停用词库)的去除,这些特殊符号还有标点符号,以及文本中夹杂的数字和字母会对分词的效果产生影响。eclipse GBK 编码
  3. 所属分类:互联网

  1. ICTCLAS2013(NlPIR) x64 的中文分词

  2. 整合 使用ICTCLAS2013(NlPIR) x64 的中文分词,分词的速度和效果都不错。然后就是对文本进行的去停用词以及特殊符号(哈工大停用词库)的去除,这些特殊符号还有标点符号
  3. 所属分类:Java

    • 发布日期:2015-08-29
    • 文件大小:5242880
    • 提供者:eric_pengpeng
  1. 自然语言处理-分词实验报告+源码

  2. 自然语言处理-分词实验报告+源码 自然语言处理-分词实验报告+源码
  3. 所属分类:讲义

    • 发布日期:2018-06-21
    • 文件大小:4194304
    • 提供者:wanfengqu
  1. 中文自动分词 哈工大-中文信息处理实验二 实验报告

  2. 中文自动分词 1. 使用任意分词方法实现汉语自动分词; 2. 给出至少1000个句子的分词结果(以附件形式); 3. 计算出分词结果的正确率,并给出计算依据; 4. 用实例说明所用分词方法分别对“交叉歧义”和“组合歧义”的处理能力; 5. 提交实验报告,给出详细实验过程和结果;提交源代码和可执行程序。
  3. 所属分类:Python

    • 发布日期:2018-07-06
    • 文件大小:385024
    • 提供者:qq_32285991
  1. 最新最全中文停用词,标点-已分词

  2. 2018最新最全中文停用词标,标点-已分词。包含哈工大,百度等在用的停用词
  3. 所属分类:深度学习

    • 发布日期:2018-07-22
    • 文件大小:21504
    • 提供者:qq_26336495
  1. windows下LTP分词python3.5编译包

  2. 解决windows下无法运行哈工大的分词数据,相比较于其他的分词工具,如jieba和中科院等等,做出一个比较,以便更好的优化分词质量
  3. 所属分类:机器学习

    • 发布日期:2018-08-13
    • 文件大小:1048576
    • 提供者:wuhaotongxue
  1. 读书笔记2之中文分词流程HanLP

  2. 本文档简单介绍了中文分词流程,可以细入某个领域进行研究,但是,据了解,中文分词有很多框架了,其中采用C语言的哈工大自然语言处理实验室、有复旦大学的FNLP、有商业公司支持的HanLP、斯坦福大学的....等等,这些都是开源框架,可以查看里面的源码,选择一个框架,首先看他的在社区的活跃度,比如:查看GitHub中的star、再其次看他是否是开源的框架、再其次看易用性、广泛性
  3. 所属分类:深度学习

    • 发布日期:2018-08-20
    • 文件大小:30720
    • 提供者:qq_24729325
  1. 哈工大ltp linux下编译好的whl文件直接可安装

  2. 如果是Ubuntu系统,请把m修改为mu即可,通过pip 安装,Linux不需要编译 pyltp-0.2.1-cp35-cp35m-linux_x86_64.whl
  3. 所属分类:机器学习

    • 发布日期:2018-07-13
    • 文件大小:31457280
    • 提供者:zhulinniao
  1. 【2018年9月整理优化】中英文停用词合集(内含哈工大、四川人智能实验室、百度停用词等)

  2. 搜索下载了各种中英文停用词(哈工大、百度、四川人工智能实验室等等),最终整理优化了一个合集,供项目使用
  3. 所属分类:深度学习

    • 发布日期:2018-09-07
    • 文件大小:23552
    • 提供者:qq_16499693
  1. NLPIR分词、去停用词

  2. 整合 使用ICTCLAS2013(NlPIR) x64 的中文分词,分词的速度和效果都不错。然后就是对文本进行的去停用词以及特殊符号(哈工大停用词库)的去除,这些特殊符号还有标点符号,以及文本中夹杂的数字和字母会对分词的效果产生影响。eclipse GBK 编码
  3. 所属分类:互联网

    • 发布日期:2018-12-20
    • 文件大小:5242880
    • 提供者:qq_22098033
  1. NLPIR分词、去停用词

  2. 整合 使用ICTCLAS2013(NlPIR) x64 的中文分词,分词的速度和效果都不错。然后就是对文本进行的去停用词以及特殊符号(哈工大停用词库)的去除,这些特殊符号还有标点符号,以及文本中夹杂的数字和字母会对分词的效果产生影响。eclipse GBK 编码
  3. 所属分类:互联网

    • 发布日期:2019-01-13
    • 文件大小:5242880
    • 提供者:weixin_44425171
  1. 最全哈工大停用词表 txt utf-8

  2. 最全哈工大停用词表~ 中文分词~ 去停止词~ txt格式 UTF-8编码 盆友们有需自取~ 宝宝们快乐分词,冲冲冲!
  3. 所属分类:机器学习

    • 发布日期:2020-06-19
    • 文件大小:5120
    • 提供者:nimade810
  1. 结巴jieba分词中文分词停用词表2000条数据

  2. 结巴中文分词停用表,整合百度分词、哈工大等停用词表2000余条数据 即拿即用,效果好,提升分词速度准确率。
  3. 所属分类:机器学习

    • 发布日期:2020-08-03
    • 文件大小:16384
    • 提供者:cjqbg
  1. 中文停用词库.zip

  2. 分词词典: 综合了百度、搜狗等词库,以及手动整理的若干人名和新近出现的热词 中文停用词: 综合了"百度停用词表","哈工大停用词表","四川大学机器学习实验室停用词表"等若干停用词表,取交集并去除了不需要的标点符号和英文单词
  3. 所属分类:互联网

    • 发布日期:2020-12-04
    • 文件大小:22020096
    • 提供者:fangxiananvhai
  1. 事件提取:基于法律裁判文书的事件提取及其应用,包括数据的分词,词性标注,命名实体识别,事件要素撤消和判决结果预测等内容-源码

  2. 基于法律裁判文书的事件撤除及其应用 简介 针对交通肇事案件的裁判文书进行事件要素移除,并在此基础上加入决策结果预测,案件相似度匹配等应用场景。 数据来源: 分词:基于pkuseg 词性标注:基于哈工大LTP / pkuseg 命名实体识别:基于BiLSTM-CRF 应用部分:包括判决结果的预测,案件相似度的比较等
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:130023424
    • 提供者:weixin_42168902
« 12 »