您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. php中方分词DEMO

  2. 这个程序是用于PHP最简易的中文词语划分和词性标注,小弟最近在做这方面的研究,苦于没有合适的PHP分词软件,而ICTCLAS或PCSWS不懂如何加载,终于让小弟找到一款这样的软件,与大家共享。本DEMO来自IT柏拉图的个人博客,网址为http://www.itgrass.com/phpanalysis/?ac=done。感谢大神啊!只用于学习和交流,严禁商业用途。
  3. 所属分类:PHP

    • 发布日期:2010-03-25
    • 文件大小:4194304
    • 提供者:wu474046308
  1. 词性标注词典(Access数据库)

  2. 词性标注词典,Access数据库,中文信息处理课编写分词程序可以用到
  3. 所属分类:Access

    • 发布日期:2010-04-13
    • 文件大小:3145728
    • 提供者:li072529
  1. LJParser文本搜索与挖掘开发平台

  2. 一、简介 LJParser文本搜索与挖掘开发平台包括:全文精准搜索,新词发现,汉语分词标注,词语统计与术语翻译,自动聚类与热点发现,分类过滤,自动摘要,关键词提取,文档去重,正文提取等十余项功能。针对互联网内容处理的需要,融合了自然语言理解、网络搜索和文本挖掘的技术,提供了用于技术二次开发的基础工具集。开发平台由多个中间件组成,各个中间件API可以无缝地融合到客户的各类复杂应用系统之中,可兼容Windows,Linux, Android,Maemo5, FreeBSD等不同操作系统平台,可以供
  3. 所属分类:Web开发

    • 发布日期:2010-05-11
    • 文件大小:17825792
    • 提供者:lingjoin
  1. ICTC-6

  2. N-最短路径中文词语粗分是分词过程中非常重要的一步,而原有ICTCLAS中该部分代码也是我认为最难读懂的部分,到现在还有一些方法没有弄明白,因此我几乎重写了NShortPath类。要想说明N-最短路径代码是如何工作的并不容易,所以分成两步分,本部分先说说SharpICTCLAS中1-最短路径是如何实现的,在下一篇文章中再引申到N-最短路径。1、数据表示这里我们求最短路的例子使用如下的有向图,每条边的权重已经在图中标注出来了。(图一)根据上篇文章内容,该图该可以等价于如下的二维表格表示:(图二)
  3. 所属分类:C

    • 发布日期:2008-01-21
    • 文件大小:6
    • 提供者:whydmn
  1. 中文分词检索 C程序

  2. 基于逆向最大匹配算法的分词及基于HMM模型的词性标注系统,包括了未登录词的识别、数据库的添加等内容。(需要手动修改数据库的路径才可以运行。。。
  3. 所属分类:C

    • 发布日期:2011-03-14
    • 文件大小:4194304
    • 提供者:cemnarrate
  1. ctbparser_0.11

  2. 该程序集为c++所写,其集分词、词性标注、句法分析为一体,一个开源程序本人在vs2005+stlport5.2.1下调试通过……
  3. 所属分类:C++

    • 发布日期:2011-05-11
    • 文件大小:13631488
    • 提供者:ccnunlp
  1. 统计词性总量的程序

  2. 这个程序可以用来统计词性总数,不过要求实现进行词性标注,然后进行词性总量统计
  3. 所属分类:C

    • 发布日期:2011-12-20
    • 文件大小:1024
    • 提供者:zuoan335399433
  1. 北航人工作业(词性标注)

  2. 词性标注程序 人工智能作业 多层隐马尔科夫链
  3. 所属分类:其它

    • 发布日期:2012-02-08
    • 文件大小:3145728
    • 提供者:wangyu1wangyu
  1. 汉语文本聚类

  2. 程序利用中科院的软件,分词、词性标注以后聚类,利用tf-idf值求出30个特征性,生成特征向量,可放在weka中聚类!
  3. 所属分类:C++

    • 发布日期:2012-03-05
    • 文件大小:5242880
    • 提供者:bengyu
  1. NLPIR大数据搜索与挖掘共享开发平台

  2. 一、简介 NLPIR文本搜索与挖掘开发平台针对互联网内容处理的需要,融合了自然语言理解、网络搜索和文本挖掘的技术,提供了用于技术二次开发的基础工具集。开发平台由多个中间件组成,各个中间件API可以无缝地融合到客户的各类复杂应用系统之中,可兼容Windows,Linux, Android,Maemo5, FreeBSD等不同操作系统平台,可以供Java,C,C#等各类开发语言使用。 NLPIR是一套专门针对原始文本集进行处理和加工的软件,提供了中间件处理效果的可视化展示,也可以作为小规模数据的处
  3. 所属分类:C/C++

    • 发布日期:2014-10-24
    • 文件大小:41943040
    • 提供者:u012548562
  1. 结巴分词、词性标注以及停用词过滤

  2. 因为比赛需要用到结巴分词,所以写了一个关于结巴分词、词性标注以及停用词过滤的python程序。
  3. 所属分类:Python

    • 发布日期:2016-10-31
    • 文件大小:7340032
    • 提供者:qq_34068735
  1. 使用HMM模型实现的中文分词程序

  2. 该模型使用了HMM(隐马尔可夫)模型建立中文分词程序,使用了词性标注的思想进行中文分词,更加适合自然语言处理方向的新手进行学习!
  3. 所属分类:机器学习

    • 发布日期:2018-06-26
    • 文件大小:4096
    • 提供者:sinat_32332805
  1. 自然语言词性标注程序

  2. 汉语的分词与词性标注程序,基于C++开发,可成功运行,其中的input文件是输入文件,output为输出,有一个自己编写的头文件和一个运行文件,语料库是人民日报语料库
  3. 所属分类:C++

    • 发布日期:2018-02-04
    • 文件大小:950272
    • 提供者:sh2245237188
  1. 中文分词学习版

  2. 此为学习版,请勿用于商业用途或扩散。 以下描述转至互联网。 ============== 一、CSW中分词组件简介 CSW中文分词组件,是一套可自动将一段文本按常规汉语词组进行拆分,并以指定方式进行分隔的COM组件。本组件采用独有的高效的分词引擎及拆分算法,具有准确、高速、资源占用率小等特点。为了满足客户对文本语义进行研究分析的需要,本组件同时提供词性及词频标注功能,可根据用户要求,对其拆分后的词组进行词性标注或词频标注。互联网信息检索、数据库信息查询、智能聊天机器人、文本校对、自动翻译、 自
  3. 所属分类:机器学习

    • 发布日期:2018-10-11
    • 文件大小:1048576
    • 提供者:weixin_43387663
  1. PHP中文分词代码 v1.0 UTF-8.rar

  2. PHP中文分词代码使用居于unicode的词库,使用反向匹配模式分词,理论上兼容编码更广泛,并且对utf-8编码尤为方便。由于PhpanAlysis是无组件的系统,因此速度会比有组件的稍慢,不过在大量分词中,由于边分词边完成词库载入,因此内容越多,反而会觉得速度越快,这是正常现象,对于支持PHP-APC的服务器,本程序支持对词典进行缓存,这样做之后理论的速度并不慢于那些带组件的分词程序了。 分词系统是基于字符串匹配的分词方法 ,这种方法又叫做机械分词方法,它是按照一定的策略将待分析的汉字串与
  3. 所属分类:其它

    • 发布日期:2019-07-09
    • 文件大小:2097152
    • 提供者:weixin_39841365
  1. nlp_windows_exe_ui:python3.6-制作一个包含NLP基本功能系统(Windows exe)自然语言处理系统。系统功能:分词,词性标注,关键词提取,文本分类-源码

  2. nlp_windows_exe_ui 介绍 python3.6-制作一个包含NLP基本功能系统(Windows exe)自然语言处理系统。系统功能:分词,词性标注,关键字提取,文本分类;由于要打包成exe的关系,我将原本的项目的多一个文件的集成到一个python文件(合并文件)里,只保留了使用该系统所需要的函数,方便打包,通俗地讲就是,生成生成词向量过程,装袋过程,模型训练过程的,以及一些中间步骤的程序代码,这些有些涉及很多库的,这些打包进去。但是整个项目里的东西是完整的(包括数据) 运行这个系
  3. 所属分类:其它

    • 发布日期:2021-03-15
    • 文件大小:20971520
    • 提供者:weixin_42129113
  1. OpenNLP:驾驭文本,分词那些事

  2. 字符串、字符数组以及其他文本表示的处理库构成大部分文本处理程序的基础。大部分语言都包括基本的处理库,这也是对文本处理或自然语言处理的前期必要工作。典型代表便是分词、词性标注、句子识别等等。本文所介绍的工具主要针对英文分词,对于英文分词工具很多,笔者经比较ApacheOpenNLP效率和使用便捷度较好。另外其针对Java开发提供开源的API。维基百科:ApacheOpenNLP库是一个基于机器学习的自然语言文本处理的开发工具包,它支持自然语言处理中一些共有的任务,例如:标记化、句子分割、词性标注、
  3. 所属分类:其它

    • 发布日期:2021-02-24
    • 文件大小:187392
    • 提供者:weixin_38722464
  1. pos-tagger-nltk-scikit-learn:使用自定义训练模型的语音Tagger,由Scikit-Learn和NLTK实施-源码

  2. pos-tagger-nltk-scikit-learn 使用自定义训练模型的词性标注器,在Scikit-Learn和NLTK中实现 档案 'corpus.py'-获取包含标记数据的NLTK文本语料库 'dt_clf.sav'-训练有素的模型文件的腌制文件 'example.py'-POS标记的简单示例 'tagger.py'-使用经过训练的模型读取输入语句并进行perfom POS标记 'util.py'-包含实用程序功能和方法
  3. 所属分类:其它

    • 发布日期:2021-02-04
    • 文件大小:253952
    • 提供者:weixin_42139302
  1. monpa:MONPA罔拍是一个提供正体中文断词,词性标注以及命名实体识别的多任务模型-源码

  2. 罔拍MONPA:多目标NER POS注释器 MONPA罔拍是一个提供正体中文断词,词性标注以及命名实体识别的多任务模型。初期只有网站示范版本( ),本计划是将monpa包装成可以pip install的python软件包(最新版本v0.3.1)。 最新版的monpa模型是使用pytorch 1.0框架训练出来的模型,所以在使用本版本前,请先安装割炬1. *以上版本才能正常使用monpa套件。 公告 - 本次更新版本 v0.3.2:解決 issue 10, 11 的建議,新增 short_sen
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:8388608
    • 提供者:weixin_42118701
  1. OpenNLP:驾驭文本,分词那些事

  2. 字符串、字符数组以及其他文本表示的处理库构成大部分文本处理程序的基础。大部分语言都包括基本的处理库,这也是对文本处理或自然语言处理的前期必要工作。典型代表便是分词、词性标注、句子识别等等。本文所介绍的工具主要针对英文分词,对于英文分词工具很多,笔者经比较Apache OpenNLP效率和使用便捷度较好。另外其针对Java开发提供开源的API。维基百科:ApacheOpenNLP库是一个基于机器学习的自然语言文本处理的开发工具包,它支持自然语言处理中一些共有的任务,例如:标记化、句子分割、词性标注
  3. 所属分类:其它

    • 发布日期:2021-01-27
    • 文件大小:187392
    • 提供者:weixin_38703123
« 12 »