您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. wordcloud的各种版本、jieba

  2. python的词云,不能通过pip安装的另一种方式就是把要安装的文件下载下来,执行本地pip install就不从网上下载了。 首先在cmd的环境下输入 python查看自己的python版本是多少,然后再结合电脑的位数安装对应的wordcloud不然会出错,我这里给出的是python2.7--3.6的wordcloud文件加上一个jieba的压缩包,安装方法。
  3. 所属分类:Python

    • 发布日期:2018-05-20
    • 文件大小:8388608
    • 提供者:qq_27607229
  1. 【源码下载】Python数据爬虫及可视化分析

  2. 通过requests抓包方式爬取拉勾网深圳市的数据分析岗位信息,并利用pandas、pyecharts、jieba、WordCloud等工具,从多维度进行岗位数据的可视化分析。
  3. 所属分类:Python

    • 发布日期:2018-09-24
    • 文件大小:14336
    • 提供者:kyrie001
  1. jieba-analysis-master.zip

  2. 学习过程中,在Ubuntu虚拟机上,使用Eclipse,用java编写分词行为,需要下载此包。 1.下载好后解压,并且在Eclipse中开始新建一个java项目。 2.在项目的src文件夹下新建如下2个包:com.huaban.analysis.jieba和com.huaban.analysis.jieba.viterbi。 3.将解压好的文件jieba-analysis-master\src\main\java\com\huaban\analysis\jieba目录下的8个文件放到刚才新建的
  3. 所属分类:算法与数据结构

    • 发布日期:2019-04-30
    • 文件大小:7340032
    • 提供者:qq_40237865
  1. nlp-requirements安装包

  2. NLP开发工具集成包,其中包括numpy,nltk,gensim,tensorflow,jieba,Stanford NLP,Hanlp, 通过pip install -r nlp-requirements.txt 一键进行下载
  3. 所属分类:机器学习

    • 发布日期:2019-06-08
    • 文件大小:776
    • 提供者:qq_29027865
  1. jieba-0.42.1.zip

  2. 中文分词工具jieba 。相比其他分词工具而言,jieba不仅只有分词这一功能,它还提供了许多分词以外的算法,支持Python、R、C++等多种编程语言的实现,使用简单,对于新手而言是一个较好的入门分词工具
  3. 所属分类:外包

    • 发布日期:2020-05-10
    • 文件大小:38797312
    • 提供者:z_mawkish
  1. jieba _1.0.2.zip

  2. java jieba包最全资源。 java项目中新建一个文件夹lib,并将jar包复制到lib文件夹中。 选中jieba-analysis-1.0.2,右键点击【Build Path】→【Add to Build Path 】之后该jar包就已经成功添加到了java项目中了。此时你的java项目中多了一个Referenced Libraries 库,该库里面就是成功添加的jieba-analysis-1.0.2包 右键点击java项目名,点击【Build Path】→【Configure Bui
  3. 所属分类:Java

    • 发布日期:2020-03-31
    • 文件大小:4194304
    • 提供者:sea_ocean7
  1. jieba-0.42.1.rar

  2. 这是我的jieba库的压缩包,有需要的可以直接下载,已经安装完毕的,解压可以直接用。拿走不谢哈哈,希望你们安装成功,不要被这种小事情伤脑筋呀。
  3. 所属分类:Python

    • 发布日期:2020-05-28
    • 文件大小:36700160
    • 提供者:FlowerMin
  1. 在pycharm安装jieba库和wordcloud库并生成词云图

  2. 安装jieba库 如果直接打开settings–>Project:xx–>Project Interpreter,点击右边的+号搜索jieba进行安装,可能过几分钟后它直接给你一个安装失败。(挖槽,我的内心是凉凉的)。 亲,在此还是建议你从网上下回来手动安装~ 官网地址:https://pypi.org/project/jieba/#files 下载后的压缩包进行解压,解压在随便一个目录都可以。 然后以管理员身份打开cmd,进入到解压目录,如D:\jieba-0.42.1,然后输入p
  3. 所属分类:其它

    • 发布日期:2020-12-21
    • 文件大小:323584
    • 提供者:weixin_38700320
  1. python实现的读取网页并分词功能示例

  2. 本文实例讲述了python实现的读取网页并分词功能。分享给大家供大家参考,具体如下: 这里使用分词使用最流行的分词包jieba,参考:https://github.com/fxsjy/jieba 或点击此处本站下载jieba库。 代码: import requests from bs4 import BeautifulSoup import jieba # 获取html url = http://finance.ifeng.com/a/20180328/16049779_0.shtml res
  3. 所属分类:其它

    • 发布日期:2021-01-02
    • 文件大小:232448
    • 提供者:weixin_38673548
  1. TextInfoExp:自然语言处理实验(sougou数据集),TF-IDF,文本分类,聚类,词向量,情感识别,关系撤消等-源码

  2. 建立实验环境 1个安装python(2.7) 2安装点: 2.1下载pip 2.2解压缩后,安装指令python setup.py install 2.3 pip升级python -m pip install --upgrade pip 2.4 pip安装扩展包pip install jieba(这里以jieba包为例),如果速度较慢,可转换内部的阿里源,即pip install jieba -i --trusted-host mirrors.aliyun.com 3安装pycha
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:79691776
    • 提供者:weixin_42122432
  1. NLPIR、pyltp、jieba、hanlp、snownlp分词工具安装使用记录

  2. 最近适用了这五款分词工具,光是下载安装就踩了很多坑,特别是pyltp和hanlp,装到我怀疑人生。 以下是整理的安装过程和注意事项。 希望能给大家提供些帮助。 目录一、Nlpir第一步:下载工具。第二步:下载后,解压,按如下顺序进入目录。第三步:打开工具,可以看到有精准采集、文档转换、批量分词等功能。具体使用方法可参考右下角“使用手册”。二、 Pyltp第一步:下载安装Pyltp。第二步:下载模型。第三步:使用基本组件。三、 Jieba第一步:pip安装,指令为第二步:基于python中jieb
  3. 所属分类:其它

    • 发布日期:2021-01-21
    • 文件大小:799744
    • 提供者:weixin_38617297
  1. Anaconda安装jieba(windows)

  2. 2020/02/26 12:55 最近学习自然语言处理,需要在Anaconda下安装jieba。学习了网上的一些博客,发现半自动安装算是比较靠谱,最后解决方法如下: 1、从官网下载jieba压缩包。 2、将压缩包解压到Anaconda的pkgs文件夹下。 3、打开Anaconda Prompt,切换到解压好的目录下比如E:\Anaconda3-5.1.0\pkgs\jieba-0.39。然后执行python setup.py install即可。 4、再次打开Jupyter Notebook 引
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:27648
    • 提供者:weixin_38525735
  1. Python错题本:from scipy.misc import imread 报错cannot import name imread 的解决方案

  2. 在进行练习Python词云WordCloud练习时候,想用一张特殊形状背景为白色的照片生成一张特殊形状的词云.png图片,这时候需要用到imread方法。 import jieba import wordcloud from scipy. misc import imread 出现错误:cannot import name imread 然后开始寻找解决方案,找遍了网上的参考资料,有如下几种可能的情况: 1.没有安装Pillow。 解决方案:pip install pillow或者将下载好的p
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:51200
    • 提供者:weixin_38624914