您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. Java版的BosonNLP分词

  2. 玻森专注中文语义分析技术,拥有丰富的经验积累。自主研发千万级中文语料库,为精准和深度的中文语义分析提供坚实基础。一站式解决您的中文语义分析需求。多个语义分析API,从情感倾向、实体、分类等方面。官网只有python版本,现上传Java的实例。
  3. 所属分类:Java

    • 发布日期:2018-11-16
    • 文件大小:8388608
    • 提供者:hello_java2018
  1. Python-Jiagu深度学习自然语言处理工具

  2. Jiagu深度学习自然语言处理工具 中文分词 词性标注 命名实体识别 情感分析 新词发现 关键词 文本摘要
  3. 所属分类:其它

    • 发布日期:2019-08-10
    • 文件大小:56623104
    • 提供者:weixin_39841848
  1. Python-使用keras实现的基于BiLSTMCRF的中文分词词性标注

  2. 使用keras实现的基于Bi-LSTM CRF的中文分词 词性标注
  3. 所属分类:其它

    • 发布日期:2019-08-10
    • 文件大小:115712
    • 提供者:weixin_39841365
  1. Python-FoolNLTK中文处理工具包号称可能不是最快的开源中文分词

  2. 可能不是最快的开源中文分词,但很可能是最准的开源中文分词 基于BiLSTM模型训练而成 包含分词,词性标注,实体识别, 都有比较高的准确率 用户自定义词典
  3. 所属分类:其它

    • 发布日期:2019-08-10
    • 文件大小:60817408
    • 提供者:weixin_39841882
  1. Python-语义理解口语理解项目包含有词法分析中文分词词性标注命名实体识别

  2. 语义理解/口语理解,项目包含有词法分析:中文分词、词性标注、命名实体识别;口语理解:领域分类、槽填充、意图识别。
  3. 所属分类:其它

    • 发布日期:2019-08-10
    • 文件大小:3072
    • 提供者:weixin_39841365
  1. Python-小明NLP轻量级中文自然语言处理工具

  2. A Lightweight Chinese Natural Language Processing Toolkit,提供中文分词, 中文词性标注, 文本纠错,文本转拼音,情感分析...
  3. 所属分类:其它

    • 发布日期:2019-08-10
    • 文件大小:24117248
    • 提供者:weixin_39841365
  1. Python-基于UniversalTransformerCRF的中文分词和词性标注

  2. Sequence labeling base on universal transformer (Transformer encoder) and CRF; 基于Universal Transformer CRF 的中文分词和词性标注
  3. 所属分类:其它

    • 发布日期:2019-08-10
    • 文件大小:99328
    • 提供者:weixin_39840387
  1. Python-自然语言基础模型

  2. 基于HMM的中文分词模型 基于fasttext的情感极性判断模型 基于MaxEnt的中文词性标注模型 基于CRF的中文命名实体识别模型 基于序列标注的中文依存句法分析模型 基于Xgboost的中文疑问句判别模型
  3. 所属分类:其它

    • 发布日期:2019-08-10
    • 文件大小:63488
    • 提供者:weixin_39840588
  1. Python-Jiagu深度学习自然语言处理工具

  2. Jiagu深度学习自然语言处理工具 中文分词 词性标注 命名实体识别 情感分析 新词发现 关键词 文本摘要
  3. 所属分类:其它

    • 发布日期:2019-08-12
    • 文件大小:56623104
    • 提供者:weixin_39840914
  1. 自然语言处理 中英文分词、词性标注与命名实体识别——文本和代码

  2. 中英文分词工具有很多,今天我们来使用Jieba、SnowNlp、nltk、thunlp、NLPIR、Stanford等六种工具来对给定中英文文本进行分词、词性标注与命名实体识别。
  3. 所属分类:Python

    • 发布日期:2019-05-24
    • 文件大小:7168
    • 提供者:godsolve
  1. Python实现爬取并分析电商评论

  2. 现如今各种APP、微信订阅号、微博、购物网站等网站都允许用户发表一些个人看法、意见、态度、评价、立场等信息。针对这些数据,我们可以利用情感分析技术对其进行分析,总结出大量的有价值信息。例如对商品评论的分析,可以了解用户对商品的满意度,进而改进产品;通过对一个人分布内容的分析,了解他的情绪变化,哪种情绪多,哪种情绪少,进而分析他的性格。怎样知道哪些评论是正面的,哪些评论是负面的呢?正面评价的概率是多少呢?   利用python的第三方模块SnowNLP可以实现对评论内容的情感分析预测,SnowNL
  3. 所属分类:其它

    • 发布日期:2020-12-17
    • 文件大小:163840
    • 提供者:weixin_38657457
  1. nlp_windows_exe_ui:python3.6-制作一个包含NLP基本功能系统(Windows exe)自然语言处理系统。系统功能:分词,词性标注,关键词提取,文本分类-源码

  2. nlp_windows_exe_ui 介绍 python3.6-制作一个包含NLP基本功能系统(Windows exe)自然语言处理系统。系统功能:分词,词性标注,关键字提取,文本分类;由于要打包成exe的关系,我将原本的项目的多一个文件的集成到一个python文件(合并文件)里,只保留了使用该系统所需要的函数,方便打包,通俗地讲就是,生成生成词向量过程,装袋过程,模型训练过程的,以及一些中间步骤的程序代码,这些有些涉及很多库的,这些打包进去。但是整个项目里的东西是完整的(包括数据) 运行这个系
  3. 所属分类:其它

    • 发布日期:2021-03-15
    • 文件大小:20971520
    • 提供者:weixin_42129113
  1. pyhanlp:汉语分词词性标注命名实体识别依存句法分析新词发现-源码

  2. pyhanlp:HanLP1.x的Python接口 的Python接口,支持自动下载和升级 ,兼容py2,py3。内部算法通过工业界和学术界考验,配套书籍已经出版,欢迎查阅。学习的已于2020年初发布,次世代最先进的多语种NLP技术,与1.x相辅相成,平行发展。 安装 非IT人士可直接使用;新手建议观看 ;工程师请: 先安装和 。要求JDK,操作系统和Python一致。然后,最后执行: conda install -c conda-forge jpype1==0.7.0 # (可选
  3. 所属分类:其它

    • 发布日期:2021-03-03
    • 文件大小:150528
    • 提供者:weixin_42146888
  1. pkuseg-python:pkuseg多领域中文分词工具; 用于多域中文分词的pkuseg工具包-源码

  2. pkuseg:一个多领域中文分词工具包 pkuseg是基于论文[ ]的工具包。其简单易用,支持细分领域分词,有效提升了分词准确度。 目录 主要亮点 pkuseg具有如下几个特点: 多领域分词。以及以前的通用中文分词工具,此工具包同时致力于为不同领域的数据提供个性化的预训练模型。根据待分词文本的领域特点,用户可以自由地选择不同的模型。目前支持了新闻领域,网络领域,医药领域,旅游领域,以及混合领域的分词预训练模型。在使用中,如果用户明确待分词的领域,可加载对应的模型进行分词。如果用户无法确定具
  3. 所属分类:其它

    • 发布日期:2021-02-18
    • 文件大小:1048576
    • 提供者:weixin_42130786
  1. lac:百度NLP:分词,词性标注,命名实体识别,词首-源码

  2. 工具介绍 LAC全称中文的词法分析,是百度自然语言处理部研发的一种联合的词法分析工具,实现中文分词,词性标注,专名识别等功能。该工具具有以下特点和优势: 效果好:通过深度学习模型联合学习分词,词性标注,专名识别任务,单词索引,整体效果F1值超过0.91,词性标注F1值超过0.94,专名识别F1值超过0.85,效果领先。 效率高:精简模型参数,结合Paddle预测库的性能优化,CPU单线程性能达800QPS,效率领先。 可定制:实现简单可控的干预机制,精确匹配用户字典对模型进行干预。 调用便捷:支
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:4194304
    • 提供者:weixin_42150341
  1. monpa:MONPA罔拍是一个提供正体中文断词,词性标注以及命名实体识别的多任务模型-源码

  2. 罔拍MONPA:多目标NER POS注释器 MONPA罔拍是一个提供正体中文断词,词性标注以及命名实体识别的多任务模型。初期只有网站示范版本( ),本计划是将monpa包装成可以pip install的python软件包(最新版本v0.3.1)。 最新版的monpa模型是使用pytorch 1.0框架训练出来的模型,所以在使用本版本前,请先安装割炬1. *以上版本才能正常使用monpa套件。 公告 - 本次更新版本 v0.3.2:解決 issue 10, 11 的建議,新增 short_sen
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:8388608
    • 提供者:weixin_42118701
  1. xmnlp:小明NLP:提供中文分词,词性标注,拼写检查,文本转拼音,情感分析,文本摘要,偏旁部首-源码

  2. / xmnlp / 小明NLP —轻量级中文自然语言处理工具 轻量级中文自然语言处理工具包 v 0.2.3 RIP 0.2.3版是xmnlp最后一个兼容Python 2.7的版本 功能概览 中文分词和词性标注 支持繁体 支持自定义词典 中文拼写检查 文本摘要&关键词提取 情感分析 文本转拼音 获取汉字偏旁部首 安装使用 安装方式 方式一 pip install xmnlp 方式二 git clone https://github.com/SeanLee97/xmnlp.git cd /path
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:24117248
    • 提供者:weixin_42178963
  1. HanLP:中文分词词性标注命名实体识别依存句法分析语义依存分析新词发现用自动生成的摘要进行文本分类聚类拼音简繁转换自然语言处理-源码

  2. HanLP:汉语言处理 || || 面向生产环境的多语种自然语言处理工具包,基于PyTorch和TensorFlow 2.x双引擎,目标是普及落地最前沿的NLP技术。HanLP实现功能完善,性能高效,架构清晰,语料时新,可自定义的特点。 穿越世界上最大的多语言种语料库,HanLP2.1支持包括简繁中英日俄法德内部的104种语言上的10种联合任务:分词(粗分,细分2个标准,强制,合并,校正3种),词性标注(PKU,863,CTB,UD四套词性规范),命名实体识别(PKU,MSRA,OntoNot
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:775168
    • 提供者:weixin_42134054
  1. Python中文分词工具之结巴分词用法实例总结【经典案例】

  2. 本文实例讲述了Python中文分词工具之结巴分词用法。分享给大家供大家参考,具体如下: 结巴分词工具的安装及基本用法,前面的文章《Python结巴中文分词工具使用过程中遇到的问题及解决方法》中已经有所描述。这里要说的内容与实际应用更贴近——从文本中读取中文信息,利用结巴分词工具进行分词及词性标注。 示例代码如下: #coding=utf-8 import jieba import jieba.posseg as pseg import time t1=time.time() f=open(t_
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:111616
    • 提供者:weixin_38535848
  1. Python结巴中文分词工具使用过程中遇到的问题及解决方法

  2. 本文实例讲述了Python结巴中文分词工具使用过程中遇到的问题及解决方法。分享给大家供大家参考,具体如下: 结巴分词是Python语言中效果最好的分词工具,其功能包括:分词、词性标注、关键词抽取、支持用户词表等。这几天一直在研究这个工具,在安装与使用过程中遇到一些问题,现在把自己的一些方法帖出来分享一下。 官网地址:https://github.com/fxsjy/jieba 1、安装。 按照官网上的说法,有三种安装方式, 第一种是全自动安装:easy_install jieba 或者 pip
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:99328
    • 提供者:weixin_38632046
« 12 »