您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. 中文同义词词库

  2. 中文同义词词库………………用于语义计算与信息检索,可以作为同义词判断程序的辅助工具
  3. 所属分类:Access

    • 发布日期:2011-10-15
    • 文件大小:1048576
    • 提供者:xiaozhi326
  1. 中文同义词词库

  2. 中文同义词词库………………用于语义计算与信息检索,可以作为同义词判断程序的辅助工具
  3. 所属分类:其它

    • 发布日期:2012-12-11
    • 文件大小:1048576
    • 提供者:fengpeng120120
  1. 中文人名自动识别的一种有效方法

  2. 中文信息计算机自动处理的研究已有几十年的 历史 , 但至今仍有许多技术难题没有得到很好解 决 , 中文姓名自动识别问题就是其中的一个。由于 它与中文文本的自动分词一样 , 属于中文信息处理 的基础研究领域 , 因而它的研究成果直接影响到中 文信息的深层次研究。汉语的自身特点使得中文信 息自动处理大多是先对要处理的文本进行自动分词 (加入显式分割符) , 然后再在分词的基础上进行词 法、语法、语义等方面的深入分析。而在分词阶 段 , 文本中的人名、地名以及其它专有名词和生词 大多被切分成单字词
  3. 所属分类:专业指导

    • 发布日期:2008-10-16
    • 文件大小:84992
    • 提供者:yxh0612
  1. 中文分词库 IKAnalyzer For Lucene 5.2.1(适用Lucene 5.2.1)

  2. 此版本是基于IK-Analyzer-2012FF修改而来,专门适用于Lucene 5.2.1。 IK Analyzer 是一个开源的,基于java语言开发的轻量级的中文分词工具包。从2006年12月推出1.0版开始, IKAnalyzer已经推出了4个大版本。最初,它是以开源项目Luence为应用主体的,结合词典分词和文法分析算法的中文分词组件。从3.0版本开始,IK发展为面向Java的公用分词组件,独立于Lucene项目,同时提供了对Lucene的默认优化实现。在2012版本中,IK实现了简
  3. 所属分类:Java

    • 发布日期:2015-07-08
    • 文件大小:1048576
    • 提供者:u012684324
  1. CWB中文语义词库

  2. 中文语义词库, 也是稍有特色的汉语语义词典。它含有 10 万以上的词条, 每个词条通过关系比较密切的相关词 (例如同义词、反义词、上位词、下位词等) 与其它词条相连结
  3. 所属分类:其它

    • 发布日期:2017-01-11
    • 文件大小:9437184
    • 提供者:sticklee
  1. Java 词海分析 自然语言分析 人名地名机构名提取自定义词典

  2. 中文分词 最短路分词 N-最短路分词 CRF分词 索引分词 极速词典分词 用户自定义词典 词性标注 命名实体识别 中国人名识别 音译人名识别 日本人名识别 地名识别 实体机构名识别 关键词提取 TextRank关键词提取 自动摘要 TextRank自动摘要 短语提取 基于互信息和左右信息熵的短语提取 拼音转换 多音字 声母 韵母 声调 简繁转换 繁体中文分词 简繁分歧词(简体、繁体、臺灣正體、香港繁體) 文本推荐 语义推荐 拼音推荐 字词推荐 依存句法分析 基于神经网络的高性能依存句法分析器
  3. 所属分类:Java

    • 发布日期:2017-10-11
    • 文件大小:22020096
    • 提供者:vip923803855
  1. 词典下载 情感分析 词库汇总 语义词典 人工智能 情感词库

  2. 网上购买最全的中文情感词典,包括以下内容: 1. 褒贬词及其近义词; 2. 汉语情感词极值表; 3. 清华大学李军中文褒贬义词典; 4. 情感词典及其分类; 5. 情感词汇本体; 6. 台湾大学NTUSD简体中文情感词典; 7. 知网Hownet情感词典。
  3. 所属分类:机器学习

    • 发布日期:2017-10-11
    • 文件大小:1048576
    • 提供者:z360901061100
  1. cwb中文分类词库 中文语义词库

  2. CWB简介 这是一个略具规模的中文语义词库, 也是稍有特色的汉语语义词典。它含有 10 万以上的词条, 每个词条通过关系比较密切的相关词 (例如同义词、反义词、上位词、下位词等) 与其它词条相连结。整个词库呈现为比较复杂的网络结构, 并带有多种检索手段和显示方式。
  3. 所属分类:网络基础

    • 发布日期:2009-02-10
    • 文件大小:10485760
    • 提供者:zmz420
  1. 中文情感和语义词库

  2. 多个情感辞典。 褒义词 近义词 贬义词 知网Hownet情感词典 台湾大学NTUSD简体中文情感词典
  3. 所属分类:机器学习

    • 发布日期:2018-05-15
    • 文件大小:1048576
    • 提供者:baizhan2012
  1. 最全中文情感词库

  2. 目前最全的中文情感词典,包括以下内容: 褒贬词及其近义词 ,汉语情感词极值表, 清华大学李军中文褒贬义词典, 情感词典及其分类, 情感词汇本体, 台湾大学NTUSD简体中文情感词典, 知网Hownet情感词典。
  3. 所属分类:机器学习

    • 发布日期:2018-02-02
    • 文件大小:1048576
    • 提供者:cstkl
  1. CSC中文语义词库v2.1

  2. 中文语义词库中文语义词库中文语义词库中文语义词库中文语义词库中文语义词库
  3. 所属分类:机器学习

    • 发布日期:2018-02-25
    • 文件大小:23068672
    • 提供者:q97012791
  1. nlp最全中文情感和语义词库

  2. 自然语言处理情感分析 舆情监测 需要用到的最全中文情感和语义词库
  3. 所属分类:机器学习

    • 发布日期:2018-02-28
    • 文件大小:1048576
    • 提供者:fangzheng354
  1. Java版的BosonNLP分词

  2. 玻森专注中文语义分析技术,拥有丰富的经验积累。自主研发千万级中文语料库,为精准和深度的中文语义分析提供坚实基础。一站式解决您的中文语义分析需求。多个语义分析API,从情感倾向、实体、分类等方面。官网只有python版本,现上传Java的实例。
  3. 所属分类:Java

    • 发布日期:2018-11-16
    • 文件大小:8388608
    • 提供者:hello_java2018
  1. 财经常用词词库大全,用于中文分词

  2. 财经常用词词库大全,用于中文分词,非常全。学习分词、自然语义分析的必备词库。适用于市面绝大部分主流的自然语言处理工具包。
  3. 所属分类:机器学习

    • 发布日期:2020-03-10
    • 文件大小:62464
    • 提供者:xt14327
  1. 最全中文情感和语义词库

  2. 目前最全的中文情感词典,包括以下内容: 1. 褒贬词及其近义词; 2. 汉语情感词极值表; 3. 清华大学李军中文褒贬义词典; 4. 情感词典及其分类; 5. 情感词汇本体; 6. 台湾大学NTUSD简体中文情感词典; 7. 知网Hownet情感词典。
  3. 所属分类:专业指导

    • 发布日期:2020-02-14
    • 文件大小:1048576
    • 提供者:jhfone
  1. 最全中文情感和语义词库

  2. 目前最全的中文情感词典,包括以下内容: 1. 褒贬词及其近义词; 2. 汉语情感词极值表; 3. 清华大学李军中文褒贬义词典; 4. 情感词典及其分类; 5. 情感词汇本体; 6. 台湾大学NTUSD简体中文情感词典; 7. 知网Hownet情感词典。
  3. 所属分类:专业指导

    • 发布日期:2020-01-13
    • 文件大小:1048576
    • 提供者:asdfg1asdfg
  1. 最全中文情感和语义词库

  2. 目前最全的中文情感词典,包括以下内容: 1. 褒贬词及其近义词; 2. 汉语情感词极值表; 3. 清华大学李军中文褒贬义词典; 4. 情感词典及其分类; 5. 情感词汇本体; 6. 台湾大学NTUSD简体中文情感词典; 7. 知网Hownet情感词典。
  3. 所属分类:专业指导

    • 发布日期:2020-06-08
    • 文件大小:1048576
    • 提供者:lvvan
  1. 最全中文情感和语义词库

  2. 目前最全的中文情感词典,包括以下内容: 1. 褒贬词及其近义词; 2. 汉语情感词极值表; 3. 清华大学李军中文褒贬义词典; 4. 情感词典及其分类; 5. 情感词汇本体; 6. 台湾大学NTUSD简体中文情感词典; 7. 知网Hownet情感词典。
  3. 所属分类:专业指导

    • 发布日期:2020-10-15
    • 文件大小:1048576
    • 提供者:lemonzx2008
  1. Python中文分词库jieba,pkusegwg性能准确度比较

  2. 中文分词(Chinese Word Segmentation),将中文语句切割成单独的词组。英文使用空格来分开每个单词的,而中文单独一个汉字跟词有时候完全不是同个含义,因此,中文分词相比英文分词难度高很多。 分词主要用于NLP 自然语言处理(Natural Language Processing),使用场景有: 搜索优化,关键词提取(百度指数) 语义分析,智能问答系统(客服系统) 非结构化文本媒体内容,如社交信息(微博热榜) 文本聚类,根据内容生成分类(行业分类) Python的
  3. 所属分类:其它

    • 发布日期:2020-12-20
    • 文件大小:655360
    • 提供者:weixin_38717031
  1. HanLP:中文分词词性标注命名实体识别依存句法分析语义依存分析新词发现用自动生成的摘要进行文本分类聚类拼音简繁转换自然语言处理-源码

  2. HanLP:汉语言处理 || || 面向生产环境的多语种自然语言处理工具包,基于PyTorch和TensorFlow 2.x双引擎,目标是普及落地最前沿的NLP技术。HanLP实现功能完善,性能高效,架构清晰,语料时新,可自定义的特点。 穿越世界上最大的多语言种语料库,HanLP2.1支持包括简繁中英日俄法德内部的104种语言上的10种联合任务:分词(粗分,细分2个标准,强制,合并,校正3种),词性标注(PKU,863,CTB,UD四套词性规范),命名实体识别(PKU,MSRA,OntoNot
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:775168
    • 提供者:weixin_42134054
« 12 3 »