点数信息
www.dssz.net
注册会员
|
设为首页
|
加入收藏夹
您好,欢迎光临本网站!
[请登录]
!
[注册会员]
!
首页
移动开发
云计算
大数据
数据库
游戏开发
人工智能
网络技术
区块链
操作系统
模糊查询
热门搜索:
源码
Android
整站
插件
识别
p2p
游戏
算法
更多...
在线客服QQ:632832888
当前位置:
资源下载
搜索资源 - Python基于jieba
下载资源分类
移动开发
开发技术
课程资源
网络技术
操作系统
安全技术
数据库
行业
服务器应用
存储
信息化
考试认证
云计算
大数据
跨平台
音视频
游戏开发
人工智能
区块链
在结果中搜索
所属系统
Windows
Linux
FreeBSD
Unix
Dos
PalmOS
WinCE
SymbianOS
MacOS
Android
开发平台
Visual C
Visual.Net
Borland C
CBuilder
Dephi
gcc
VBA
LISP
IDL
VHDL
Matlab
MathCAD
Flash
Xcode
Android STU
LabVIEW
开发语言
C/C++
Pascal
ASM
Java
PHP
Basic/ASP
Perl
Python
VBScript
JavaScript
SQL
FoxBase
SHELL
E语言
OC/Swift
文件类型
源码
程序
CHM
PDF
PPT
WORD
Excel
Access
HTML
Text
资源分类
搜索资源列表
python 基于 wordcloud + jieba + matplotlib 生成词云
从txt文本里提取关键词,渲染制作图云 本案例基于python3.6, 相关模块如下,安装都是直接 pip install : wordcloud 作用如其名。本例核心模块,它把我们带权重的关键词渲染成词云 matplotlib 绘图模块,主要作用是把wordcloud生成的图片绘制出来并在窗口展示 numpy 图像处理模块,读取图片生成像素矩阵 PIL (pip install pillow) 图片处理模块, 打开初始化图片 jieba 牛逼的分词模块,因为我是从一个txt文本里提取关键词,
所属分类:
Python
发布日期:2017-11-24
文件大小:3072
提供者:
aowoolf
多种文本分类方法
基于贝叶斯,SVM对文本进行分类,详细介绍了如何进行文本分类,如python+jieba+skelam
所属分类:
深度学习
发布日期:2018-04-16
文件大小:4194304
提供者:
qq_40112964
结巴分词含代码可运行
在文本数据量非常大的时候,为了提高分词效率,开启并行分词就很有必要了。jieba支持并行分词,基于python自带的multiprocessing模块
所属分类:
机器学习
发布日期:2018-06-08
文件大小:4194304
提供者:
jiangyueruyu
结巴分词(支持词性标注)
结巴分词早期版本。 * 结巴分词(java版) jieba-analysis 首先感谢jieba分词原作者[[https://github.com/fxsjy][fxsjy]],没有他的无私贡献,我们也不会结识到结巴 分词,更不会有现在的java版本。 结巴分词的原始版本为python编写,目前该项目在github上的关注量为170, 打星727次(最新的数据以原仓库为准),Fork238次,可以说已经有一定的用户群。 结巴分词(java版)只保留的原项目针对搜索引擎分词的功能(cut_for
所属分类:
深度学习
发布日期:2018-12-17
文件大小:3145728
提供者:
qq_34859668
快速搭建垃圾分类智能问答机器人--完整工程
# 快速搭建垃圾分类智能问答机器人 基于深度学习实现的垃圾分类智能问答机器人 垃圾分类垂直领域问答机器人核心做法: 1、将问题分八大类,每个问题太类别给出一个回答 2、使用 word2vec + TextCNN 建立模型 - 环境要求 python: 3.x tensorflow: 1.x jieba word2vec # 模型训练 - 词向量方法 训练: 200个epoch,loss 0.829977, acc 0.686275 评估:0.791946 - 词汇索引方法 训练:200个epo
所属分类:
深度学习
发布日期:2019-07-08
文件大小:10485760
提供者:
zengnlp
Python-TextGrocery一简单高效的短文本分类工具基于LibLinear和Jieba
TextGrocery:一简单高效的短文本分类工具,基于 LibLinear 和 Jieba
所属分类:
其它
发布日期:2019-08-10
文件大小:73728
提供者:
weixin_39841882
Python-QAonMilitaryKG基于mongodb存储的军事领域知识图谱问答项目
QAonMilitaryKG - 基于mongodb存储的军事领域知识图谱问答项目,包括飞行器、太空装备等8大类,100余小类,共计5800项的军事武器知识库,该项目不使用图数据库进行存储,通过jieba进行问句解析,问句实体项识别,基于查询模板完成多类问题的查询,主要是提供一种工业界的问答思想demo。
所属分类:
其它
发布日期:2019-08-10
文件大小:3145728
提供者:
weixin_39840588
三国演义人物词频分析.py
基于Python利用Jieba三方库精准分析《三国演义》中人物出场排行,也可单纯分析词频,从而分析《三国演义》的角色戏份和用语习惯。
所属分类:
Python
发布日期:2020-05-28
文件大小:2048
提供者:
weixin_46662834
基于jiagu和jieba的中文地区提取算法,并用fastapi包装
基于jiagu和jieba的中文地区提取算法,用python语言编写,并用fastapi包装,可以被Java等请求结果
所属分类:
Python
发布日期:2020-06-01
文件大小:947
提供者:
weixin_41759232
python_情感分析基于jieba库.rar
python_情感分析基于jieba库,测试python3可直接运行,只需要jieba库,io库和numpy库,这三个基础库,就可以完成python的情感分析
所属分类:
教育
发布日期:2020-07-13
文件大小:264192
提供者:
ben13870068945
Python基于jieba, wordcloud库生成中文词云
主要介绍了Python基于jieba, wordcloud库生成中文词云,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友可以参考下
所属分类:
其它
发布日期:2020-09-16
文件大小:197632
提供者:
weixin_38592548
Python基于jieba库进行简单分词及词云功能实现方法
主要介绍了Python基于jieba库进行简单分词及词云功能实现方法,结合实例形式分析了Python分词库jieba以及wordcloud库进行词云绘制相关步骤与操作技巧,需要的朋友可以参考下
所属分类:
其它
发布日期:2020-09-20
文件大小:270336
提供者:
weixin_38694336
Python实现简单的文本相似度分析操作详解
主要介绍了Python实现简单的文本相似度分析操作,结合实例形式分析了Python基于分词API库jieba及文本相似度库gensim针对文本进行相似度分析操作的实现技巧与注意事项,需要的朋友可以参考下
所属分类:
其它
发布日期:2020-09-20
文件大小:64512
提供者:
weixin_38720009
Python基于jieba, wordcloud库生成中文词云
代码如下 import wordcloud import jieba font = r'C:\Windows\Fonts\simfang.ttf' w = wordcloud.WordCloud(height = 700, width = 1000, font_path=font, \ stopwords=['et','al', 'Crampin', 'and','the', 'Liu'], max_words=30) with open('NSFC.txt', 'r'
所属分类:
其它
发布日期:2020-12-17
文件大小:29696
提供者:
weixin_38504417
python使用jieba实现中文分词去停用词方法示例
前言 jieba 基于Python的中文分词工具,安装使用非常方便,直接pip即可,2/3都可以,功能强悍,十分推荐。 中文分词(Chinese Word Segmentation) 指的是将一个汉字序列切分成一个一个单独的词。 分词模块jieba,它是python比较好用的分词模块。待分词的字符串可以是 unicode 或 UTF-8 字符串、GBK 字符串。注意:不建议直接输入 GBK 字符串,可能无法预料地错误解码成 UTF-8 支持三种分词模式 1 精确模式,试图将句子最精确
所属分类:
其它
发布日期:2020-12-23
文件大小:51200
提供者:
weixin_38667581
基于python实现微信好友数据分析(简单)
一、功能介绍 本文主要介绍利用网页端微信获取数据,实现个人微信好友数据的获取,并进行一些简单的数据分析,功能包括: 1.爬取好友列表,显示好友昵称、性别和地域和签名, 文件保存为 xlsx 格式 2.统计好友的地域分布,并且做成词云和可视化展示在地图上 二、依赖库 1、Pyecharts:一个用于生成echarts图表的类库,echarts是百度开源的一个数据可视化库,用echarts生成的图可视化效果非常棒,使用pyechart库可以在python中生成echarts数据图。 2、Itchat
所属分类:
其它
发布日期:2020-12-20
文件大小:393216
提供者:
weixin_38652870
chatbot-base-on-Knowledge-Graph:使用深度学习方法解析问题知识图谱存储查询知识点基于医疗垂直领域的对话系统-源码
永远保持人类理性确实是一种奢侈。 电影《流浪的地球》的机器人莫斯(Moss)拍摄 “让人类永远保持理智,确实是一种奢求”,机器人莫斯,《流浪地球》 项目概况 本项目为一个使用深度学习方法解析问题,知识图谱存储,查询知识点,基于医疗垂直领域的对话系统的后台程序 运行效果: 项目的建设大致分为三个模块: 基础数据爬取 知识图谱重构 自动问答实现 项目运行环境: Python : python 3.6.8 运行系统: ubuntu 16.04 知识图谱: neo4j 3.2
所属分类:
其它
发布日期:2021-03-11
文件大小:125829120
提供者:
weixin_42102634
基于Python的jieba中文分词包的安装-附件资源
基于Python的jieba中文分词包的安装-附件资源
所属分类:
互联网
发布日期:2021-03-05
文件大小:106
提供者:
weixin_42184548
基于Python的jieba中文分词包的安装-附件资源
基于Python的jieba中文分词包的安装-附件资源
所属分类:
互联网
发布日期:2021-03-02
文件大小:23
提供者:
weixin_42196667
NLPIR、pyltp、jieba、hanlp、snownlp分词工具安装使用记录
最近适用了这五款分词工具,光是下载安装就踩了很多坑,特别是pyltp和hanlp,装到我怀疑人生。 以下是整理的安装过程和注意事项。 希望能给大家提供些帮助。 目录一、Nlpir第一步:下载工具。第二步:下载后,解压,按如下顺序进入目录。第三步:打开工具,可以看到有精准采集、文档转换、批量分词等功能。具体使用方法可参考右下角“使用手册”。二、 Pyltp第一步:下载安装Pyltp。第二步:下载模型。第三步:使用基本组件。三、 Jieba第一步:pip安装,指令为第二步:基于python中jieb
所属分类:
其它
发布日期:2021-01-21
文件大小:799744
提供者:
weixin_38617297
«
1
2
»