您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. python 基于 wordcloud + jieba + matplotlib 生成词云

  2. 从txt文本里提取关键词,渲染制作图云 本案例基于python3.6, 相关模块如下,安装都是直接 pip install : wordcloud 作用如其名。本例核心模块,它把我们带权重的关键词渲染成词云 matplotlib 绘图模块,主要作用是把wordcloud生成的图片绘制出来并在窗口展示 numpy 图像处理模块,读取图片生成像素矩阵 PIL (pip install pillow) 图片处理模块, 打开初始化图片 jieba 牛逼的分词模块,因为我是从一个txt文本里提取关键词,
  3. 所属分类:Python

    • 发布日期:2017-11-24
    • 文件大小:3072
    • 提供者:aowoolf
  1. 多种文本分类方法

  2. 基于贝叶斯,SVM对文本进行分类,详细介绍了如何进行文本分类,如python+jieba+skelam
  3. 所属分类:深度学习

    • 发布日期:2018-04-16
    • 文件大小:4194304
    • 提供者:qq_40112964
  1. 结巴分词含代码可运行

  2. 在文本数据量非常大的时候,为了提高分词效率,开启并行分词就很有必要了。jieba支持并行分词,基于python自带的multiprocessing模块
  3. 所属分类:机器学习

    • 发布日期:2018-06-08
    • 文件大小:4194304
    • 提供者:jiangyueruyu
  1. 结巴分词(支持词性标注)

  2. 结巴分词早期版本。 * 结巴分词(java版) jieba-analysis 首先感谢jieba分词原作者[[https://github.com/fxsjy][fxsjy]],没有他的无私贡献,我们也不会结识到结巴 分词,更不会有现在的java版本。 结巴分词的原始版本为python编写,目前该项目在github上的关注量为170, 打星727次(最新的数据以原仓库为准),Fork238次,可以说已经有一定的用户群。 结巴分词(java版)只保留的原项目针对搜索引擎分词的功能(cut_for
  3. 所属分类:深度学习

    • 发布日期:2018-12-17
    • 文件大小:3145728
    • 提供者:qq_34859668
  1. 快速搭建垃圾分类智能问答机器人--完整工程

  2. # 快速搭建垃圾分类智能问答机器人 基于深度学习实现的垃圾分类智能问答机器人 垃圾分类垂直领域问答机器人核心做法: 1、将问题分八大类,每个问题太类别给出一个回答 2、使用 word2vec + TextCNN 建立模型 - 环境要求 python: 3.x tensorflow: 1.x jieba word2vec # 模型训练 - 词向量方法 训练: 200个epoch,loss 0.829977, acc 0.686275 评估:0.791946 - 词汇索引方法 训练:200个epo
  3. 所属分类:深度学习

    • 发布日期:2019-07-08
    • 文件大小:10485760
    • 提供者:zengnlp
  1. Python-TextGrocery一简单高效的短文本分类工具基于LibLinear和Jieba

  2. TextGrocery:一简单高效的短文本分类工具,基于 LibLinear 和 Jieba
  3. 所属分类:其它

    • 发布日期:2019-08-10
    • 文件大小:73728
    • 提供者:weixin_39841882
  1. Python-QAonMilitaryKG基于mongodb存储的军事领域知识图谱问答项目

  2. QAonMilitaryKG - 基于mongodb存储的军事领域知识图谱问答项目,包括飞行器、太空装备等8大类,100余小类,共计5800项的军事武器知识库,该项目不使用图数据库进行存储,通过jieba进行问句解析,问句实体项识别,基于查询模板完成多类问题的查询,主要是提供一种工业界的问答思想demo。
  3. 所属分类:其它

    • 发布日期:2019-08-10
    • 文件大小:3145728
    • 提供者:weixin_39840588
  1. 三国演义人物词频分析.py

  2. 基于Python利用Jieba三方库精准分析《三国演义》中人物出场排行,也可单纯分析词频,从而分析《三国演义》的角色戏份和用语习惯。
  3. 所属分类:Python

    • 发布日期:2020-05-28
    • 文件大小:2048
    • 提供者:weixin_46662834
  1. 基于jiagu和jieba的中文地区提取算法,并用fastapi包装

  2. 基于jiagu和jieba的中文地区提取算法,用python语言编写,并用fastapi包装,可以被Java等请求结果
  3. 所属分类:Python

  1. python_情感分析基于jieba库.rar

  2. python_情感分析基于jieba库,测试python3可直接运行,只需要jieba库,io库和numpy库,这三个基础库,就可以完成python的情感分析
  3. 所属分类:教育

    • 发布日期:2020-07-13
    • 文件大小:264192
    • 提供者:ben13870068945
  1. Python基于jieba, wordcloud库生成中文词云

  2. 主要介绍了Python基于jieba, wordcloud库生成中文词云,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友可以参考下
  3. 所属分类:其它

    • 发布日期:2020-09-16
    • 文件大小:197632
    • 提供者:weixin_38592548
  1. Python基于jieba库进行简单分词及词云功能实现方法

  2. 主要介绍了Python基于jieba库进行简单分词及词云功能实现方法,结合实例形式分析了Python分词库jieba以及wordcloud库进行词云绘制相关步骤与操作技巧,需要的朋友可以参考下
  3. 所属分类:其它

    • 发布日期:2020-09-20
    • 文件大小:270336
    • 提供者:weixin_38694336
  1. Python实现简单的文本相似度分析操作详解

  2. 主要介绍了Python实现简单的文本相似度分析操作,结合实例形式分析了Python基于分词API库jieba及文本相似度库gensim针对文本进行相似度分析操作的实现技巧与注意事项,需要的朋友可以参考下
  3. 所属分类:其它

    • 发布日期:2020-09-20
    • 文件大小:64512
    • 提供者:weixin_38720009
  1. Python基于jieba, wordcloud库生成中文词云

  2. 代码如下 import wordcloud import jieba font = r'C:\Windows\Fonts\simfang.ttf' w = wordcloud.WordCloud(height = 700, width = 1000, font_path=font, \ stopwords=['et','al', 'Crampin', 'and','the', 'Liu'], max_words=30) with open('NSFC.txt', 'r'
  3. 所属分类:其它

    • 发布日期:2020-12-17
    • 文件大小:29696
    • 提供者:weixin_38504417
  1. python使用jieba实现中文分词去停用词方法示例

  2. 前言 jieba 基于Python的中文分词工具,安装使用非常方便,直接pip即可,2/3都可以,功能强悍,十分推荐。 中文分词(Chinese Word Segmentation) 指的是将一个汉字序列切分成一个一个单独的词。 分词模块jieba,它是python比较好用的分词模块。待分词的字符串可以是 unicode 或 UTF-8 字符串、GBK 字符串。注意:不建议直接输入 GBK 字符串,可能无法预料地错误解码成 UTF-8 支持三种分词模式       1 精确模式,试图将句子最精确
  3. 所属分类:其它

    • 发布日期:2020-12-23
    • 文件大小:51200
    • 提供者:weixin_38667581
  1. 基于python实现微信好友数据分析(简单)

  2. 一、功能介绍 本文主要介绍利用网页端微信获取数据,实现个人微信好友数据的获取,并进行一些简单的数据分析,功能包括: 1.爬取好友列表,显示好友昵称、性别和地域和签名, 文件保存为 xlsx 格式 2.统计好友的地域分布,并且做成词云和可视化展示在地图上 二、依赖库 1、Pyecharts:一个用于生成echarts图表的类库,echarts是百度开源的一个数据可视化库,用echarts生成的图可视化效果非常棒,使用pyechart库可以在python中生成echarts数据图。 2、Itchat
  3. 所属分类:其它

    • 发布日期:2020-12-20
    • 文件大小:393216
    • 提供者:weixin_38652870
  1. chatbot-base-on-Knowledge-Graph:使用深度学习方法解析问题知识图谱存储查询知识点基于医疗垂直领域的对话系统-源码

  2. 永远保持人类理性确实是一种奢侈。 电影《流浪的地球》的机器人莫斯(Moss)拍摄 “让人类永远保持理智,确实是一种奢求”,机器人莫斯,《流浪地球》 项目概况 本项目为一个使用深度学习方法解析问题,知识图谱存储,查询知识点,基于医疗垂直领域的对话系统的后台程序 运行效果: 项目的建设大致分为三个模块: 基础数据爬取 知识图谱重构 自动问答实现 项目运行环境: Python : python 3.6.8 运行系统: ubuntu 16.04 知识图谱: neo4j 3.2
  3. 所属分类:其它

    • 发布日期:2021-03-11
    • 文件大小:125829120
    • 提供者:weixin_42102634
  1. 基于Python的jieba中文分词包的安装-附件资源

  2. 基于Python的jieba中文分词包的安装-附件资源
  3. 所属分类:互联网

  1. 基于Python的jieba中文分词包的安装-附件资源

  2. 基于Python的jieba中文分词包的安装-附件资源
  3. 所属分类:互联网

  1. NLPIR、pyltp、jieba、hanlp、snownlp分词工具安装使用记录

  2. 最近适用了这五款分词工具,光是下载安装就踩了很多坑,特别是pyltp和hanlp,装到我怀疑人生。 以下是整理的安装过程和注意事项。 希望能给大家提供些帮助。 目录一、Nlpir第一步:下载工具。第二步:下载后,解压,按如下顺序进入目录。第三步:打开工具,可以看到有精准采集、文档转换、批量分词等功能。具体使用方法可参考右下角“使用手册”。二、 Pyltp第一步:下载安装Pyltp。第二步:下载模型。第三步:使用基本组件。三、 Jieba第一步:pip安装,指令为第二步:基于python中jieb
  3. 所属分类:其它

    • 发布日期:2021-01-21
    • 文件大小:799744
    • 提供者:weixin_38617297
« 12 »