您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. 1998人民日报切分语料-带有词性标注

  2. 1998人民日报切分语料-带有词性标注,用于词性标注
  3. 所属分类:C++

    • 发布日期:2010-03-07
    • 文件大小:8388608
    • 提供者:lichunwen1987
  1. LJCorpus中文语料库分析软件

  2. LJCorpus试用版本下载地址 下载地址:http://www.lingjoin.com/download/LJCorpus.rar 介绍: LJCorpus中文语料库分析软件是一套专门针对中文生语料库的加工、抽取、统计与翻译全自动的综合语料分析系统,应用了领先的汉语词法分析技术、新词发现技术、统计挖掘技术以及词语翻译对齐技术,目前,东北师范大学中文系已经成功应用该软件对新加坡的语言进行了分析,极大提高了研究的效率。 LJCorpus中文语料库分析软件的四大功能主要包括: 1. 新词发现:
  3. 所属分类:专业指导

    • 发布日期:2010-04-17
    • 文件大小:12582912
    • 提供者:lingjoin
  1. 极速分词免费Windows版

  2. 极速分词:又快又好的中文分词引擎 中文分词是互联网应用不可缺少的基础技术之一,也是其他语音和语言产品必不可少的技术组件。 经过连续多届国际中文分词评测,由字构词的分词方法获得了压倒性优势,极速分词采用由字构词技术路线,同时优化了分词速度,使得极速分词引擎具备了分词速度快和分词精度高的双重优势。 免费版性能指标 分词速度:350万字每秒,该速度远远超过目前利用模型(如马尔科夫模型)进行分词的速度 分词精度:免费版仅仅使用200万字语料训练分词知识库,分词精度在95%左右,测试表明在保持速度的同时
  3. 所属分类:3G/移动开发

    • 发布日期:2010-09-07
    • 文件大小:12582912
    • 提供者:langiner
  1. 灵柩软件 可用于汉语分词处理

  2. LJParser文本搜索与挖掘开发平台的十大功能: 1. 全文精准检索 支持文本、数字、日期、字符串等各种数据类型,多字段的高效搜索,支持AND/OR/NOT以及NEAR邻近等查询语法,支持维语、藏语、蒙语、阿拉伯、韩语等多种少数民族语言的检索。可以无缝地与现有文本处理系统与数据库系统融合。 2. 新词发现: 从文件集合中挖掘出内涵的新词语列表,可以用于用户专业词典的编撰;还可以进一步编辑标注,导入分词词典中,从而提高分词系统的准确度,并适应新的语言变化。 3. 分词标注: 对原始语料进行分词
  3. 所属分类:Web开发

    • 发布日期:2010-11-05
    • 文件大小:688128
    • 提供者:zhangguoqiang52
  1. 又好又快的极速分词2.0

  2. 极速分词免费Windows版 langiner@gmail.com 又快又好的中文分词引擎 中文分词是互联网应用不可缺少的基础技术之一,也是其他语音和语言产品必不可少的技术组件。 经过连续多届国际中文分词评测,由字构词的分词方法获得了压倒性优势,极速分词采用由字构词技术路线,同时优化了分词速度,使得极速分词引擎具备了分词速度快和分词精度高的双重优势。 免费版性能指标 分词速度:350-500万字每秒,该速度远远超过目前商用分词的速度 分词精度:免费版仅仅使用200万字语料训练分词知识库,分词精
  3. 所属分类:C++

    • 发布日期:2011-03-16
    • 文件大小:11534336
    • 提供者:langiner
  1. 中文分词十年回顾 自动分词系统

  2. 过去的十年间,尤其是2003年国际中文分词评测活动Bakeoff开展以来,中文自动分词技术有了可喜的进 步。其主要表现为:(1)通过“分词规范+词表+分词语料库”的方法,使中文词语在真实文本中得到了可计算的定 义,这是实现计算机自动分词和可比评测的基础;(2)实践证明,基于手工规则的分词系统在评测中不敌基于统计 学习的分词系统;(3)在Bakeoff数据上的评估结果表明,未登录词造成的分词精度失落至少比分词歧义大5倍以 上;(4)实验证明,能够大幅度提高未登录词识别性能的字标注统计学习方法优于
  3. 所属分类:其它

    • 发布日期:2011-04-10
    • 文件大小:1048576
    • 提供者:lwccb
  1. crf分词标注训练语料

  2. 用与crf分词,标注训练语料。 nlpcc2015任务一的数据
  3. 所属分类:其它

    • 发布日期:2015-09-16
    • 文件大小:10485760
    • 提供者:baidu_26550817
  1. 人民日报1998年1月中文标注语料库

  2. 人民日报标注语料库(版本1.0,下面简称PFR语料库)是在得到人民日报社新闻信息中心许可的条件下,以1998年人民日报语料为对象,由北京大学计算语言学研究所和富士通研究开发中心有限公司共同制作的标注语料库。该语料库对600多万字节的中文文章进行了分词及词性标注,其被作为原始数据应用于大量的研究和论文中。
  3. 所属分类:专业指导

    • 发布日期:2016-11-11
    • 文件大小:10485760
    • 提供者:xudaliang_
  1. 基于标签和语言模型的分词算法

  2. 宗成庆书里面准确率最高的分词算法,代码有点错误,[c t]分母上的统计量应该是统计前几个字出现的字数而不是自身的个数,修改就可以进行分词,细节看里面的标注,参照给出的语料可以使用
  3. 所属分类:机器学习

    • 发布日期:2017-10-10
    • 文件大小:7168
    • 提供者:baidu_33499751
  1. 中文分词入门与字标注法

  2. 作为中文信息处理的“桥头堡”,中文分词在国内的关注度似乎远远超过了自然语言处理的其他研究领域。在中文分词中,资源的重要性又不言而喻,最大匹配法等需要一个好的词表,而基于字标注的中文分词方法又需要人工加工好的分词语料库。所以想研究中文分词,第一步需要解决的就是资源问题,这里曾经介绍过“LDC上免费的中文信息处理资源”,其中包括一个有频率统计的词表,共计44405条,就可以作为一个不错的中文分词词表使用。而一个好的人工分词语料库,需要很大的人力物力投入,所以无论研究还是商用往往需要一定的费用购买,
  3. 所属分类:深度学习

    • 发布日期:2017-12-14
    • 文件大小:251904
    • 提供者:u011563494
  1. 中文分词及词性标注语料

  2. 中文分词及词性标注语料,包含微软亚研院、搜狗、北京大学等的语料库
  3. 所属分类:机器学习

    • 发布日期:2017-12-18
    • 文件大小:41943040
    • 提供者:jklhj123
  1. 微软亚研的中文分词、词性标注和命名实体识别语料

  2. 微软亚研的中文分词、词性标注和命名实体识别语料,包括训练和验证集,xml格式,方便使用,机器学习、信息检索以及NLP领域的研究人员使用来训练模型
  3. 所属分类:机器学习

    • 发布日期:2018-10-17
    • 文件大小:4194304
    • 提供者:u010732327
  1. klsstt_Java分词器word.1.3.1.jar

  2. 这是一个支持java的分词库,word分词库,实现语法分析和语料库统计相结合的方法,具备汉语切分技术、汉语语法分析技术、汉语依存关系分析技术。通过分词、词性标注等语义分析算法,再基于各类词库(包括专业词库、错误词库等),实现对客户提交的文献中的普通中文词汇、英文拼写、标点、数字、科技计量、重句、异形词、领导人姓名职务、领导人排序、政治性问题、目录、标题和图例公式序号等各种类型的错误。
  3. 所属分类:机器学习

    • 发布日期:2020-03-20
    • 文件大小:25165824
    • 提供者:klsstt
  1. 汉语分词标准汇总

  2. 文章目录《PFR人民日报标注语料库》词性编码表《现代汉语语料库加工规范——词语切分与词性标注》词性标记计算所 ICTCLAS 3.0汉语词性标记集形容词(1个一类,4个二类)区别词(1个一类,2个二类)连词(1个一类,1个二类)副词(1个一类)叹词(1个一类)方位词(1个一类)前缀(1个一类)后缀(1个一类)数词(1个一类,1个二类)名词 (1个一类,7个二类,5个三类)拟声词(1个一类)介词(1个一类,2个二类)量词(1个一类,2个二类)代词(1个一类,4个二类,6个三类)处所词(1个一类)时
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:288768
    • 提供者:weixin_38530202
  1. 语料库自然标注信息与中文分词应用研究(英文)

  2. 以中文分词为应用目标,将大规模语料库上存在的自然标注信息分为显性标注信息与隐性标注信息,分别考察了它们的分布和对大数据集上语言计算的影响。结果表明,两者都直接或间接地表达了作者对语言的分割意志,因而对分词具有积极的影响。通过词语抽取测试,发现在缺乏丰富显性标注信息的文本中,来自语言固有规律的自然标注信息对字符串有着强大的分割性能。
  3. 所属分类:其它

    • 发布日期:2021-03-16
    • 文件大小:1018880
    • 提供者:weixin_38550334
  1. 用于临床文本的细粒度中文分词和词性标注语料库

  2. 用于临床文本的细粒度中文分词和词性标注语料库
  3. 所属分类:其它

    • 发布日期:2021-03-02
    • 文件大小:506880
    • 提供者:weixin_38601390
  1. Jiayan:甲言,专注于古代汉语(古汉语古文文言文文言)处理的NLP工具包,支持文言词库合成,分词,词性标注,断句和标点。Jiayan是为古典汉语设计的工具包,支持词典构建。 ,标记,POS标记,句子分段和标点符号-源码

  2. 甲言Jiayan 简介 甲言,取“Oracle言”之意,是一种专注于古汉语处理的NLP工具包。目前通用的汉语NLP工具均以现代汉语为核心语料,对古代汉语的处理效果很差(详见)。本项目的初衷,便是辅助古汉语信息处理,帮助有志于挖掘古文化矿藏的古汉语学者,爱好者等更好的地分析和利用文言资料,从“文化遗产”中创造出“文化新产”。当前版本支持,,,和五项功能,更多功能正在开发中。 功能 利用无监督的双,以及左右进行文言词库自动生成。 利用无监督,无词典的和进行古汉语自动分词。 利用词库合成功能产生的文言
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:222208
    • 提供者:weixin_42137022
  1. NLP工具::face_savoring_food:本项目推进通过Tensorflow基于BiLSTM + CRF实现中文分词,词性标注,命名实体识别(NER)-源码

  2. NLP工具 本项目初步通过Tensorflow基于BiLSTM + CRF实现字符级序列标注模型。 功能: 1,对未登录字(词)识别能力 2,Http接口 3,可快速实现分词,词性标注,NER,SRL等序列标注模型 欢迎各位大佬吐槽。 说明 环境配置:创建新的conda环境 $ conda env create -f environment.yaml 语料处理 不同标注语料格式不同,需要额外处理,在示例/DataPreprocessing.ipynb中提供了人民日报2014准备过程(该语料集
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:29696
    • 提供者:weixin_42165018
  1. Macropodus:自然语言处理工具Macropodus,基于Albert + BiLSTM + CRF深度学习网络架构,中文分词,词性标注,命名实体识别,新词发现,关键词,文本摘要,文本相似度,科学计算器,中文数字阿拉伯NLP的工具(工

  2. Macropodus是一个以Albert + BiLSTM + CRF网络架构为基础,用大量中文语料训练的自然语言处理工具包。将提供中文分词,词性标注,命名实体识别,关键词提取,文本摘要,新词发现,文本相似度,计算器,数字转换,拼音转换,繁简转换等常见的NLP功能。 目录 安装 注意事项默认不安装nlg-yongzhuo, 如果需要该功能自行安装; 默认不指定numpy, pandas, scikit-learn版本, 过高或者过低的版本可能不支持 标准版本的依赖包详见 requirements
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:5242880
    • 提供者:weixin_42112685
  1. HanLP:中文分词词性标注命名实体识别依存句法分析语义依存分析新词发现用自动生成的摘要进行文本分类聚类拼音简繁转换自然语言处理-源码

  2. HanLP:汉语言处理 || || 面向生产环境的多语种自然语言处理工具包,基于PyTorch和TensorFlow 2.x双引擎,目标是普及落地最前沿的NLP技术。HanLP实现功能完善,性能高效,架构清晰,语料时新,可自定义的特点。 穿越世界上最大的多语言种语料库,HanLP2.1支持包括简繁中英日俄法德内部的104种语言上的10种联合任务:分词(粗分,细分2个标准,强制,合并,校正3种),词性标注(PKU,863,CTB,UD四套词性规范),命名实体识别(PKU,MSRA,OntoNot
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:775168
    • 提供者:weixin_42134054
« 12 3 4 »