您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. python的中文分词库smallseg

  2. python的中文分词库有多个,jieba、thulac都可以在GitHub上下载到,但是smallseg需要在code.google上下载,所以只上传了smallseg
  3. 所属分类:搜索引擎

    • 发布日期:2018-01-03
    • 文件大小:1048576
    • 提供者:qq_33363973
  1. python爬虫源码

  2. 用python爬取百度贴吧,而后对语料进行处理。利用结巴分词,使用python3,需要自行下载各种库如jieba。而后还有统计词频和关键词提取,功能比较全,但是可能运行起来比较慢。
  3. 所属分类:Python

    • 发布日期:2019-05-03
    • 文件大小:11534336
    • 提供者:weixin_41345899
  1. jieba _1.0.2.zip

  2. java jieba包最全资源。 java项目中新建一个文件夹lib,并将jar包复制到lib文件夹中。 选中jieba-analysis-1.0.2,右键点击【Build Path】→【Add to Build Path 】之后该jar包就已经成功添加到了java项目中了。此时你的java项目中多了一个Referenced Libraries 库,该库里面就是成功添加的jieba-analysis-1.0.2包 右键点击java项目名,点击【Build Path】→【Configure Bui
  3. 所属分类:Java

    • 发布日期:2020-03-31
    • 文件大小:4194304
    • 提供者:sea_ocean7
  1. jieba库安装出错的解决方法~整理笔记.md

  2. 如果你出现电脑cmd安装不了jieba库,那恭喜你中奖了,这时候你自带电脑安装不了第三方库,需要你重新下载一个jieba库,你需要安装步骤我博客有,希望能帮到你,谢谢关注,88!
  3. 所属分类:深度学习

    • 发布日期:2020-05-28
    • 文件大小:2048
    • 提供者:A6_107
  1. jieba-0.42.1.rar

  2. 这是我的jieba库的压缩包,有需要的可以直接下载,已经安装完毕的,解压可以直接用。拿走不谢哈哈,希望你们安装成功,不要被这种小事情伤脑筋呀。
  3. 所属分类:Python

    • 发布日期:2020-05-28
    • 文件大小:36700160
    • 提供者:FlowerMin
  1. 第三方库jieba.zip

  2. 分享python jieba库 优秀的第三方中文分词库
  3. 所属分类:Python

    • 发布日期:2020-07-21
    • 文件大小:18874368
    • 提供者:weixin_44142358
  1. 用python结合jieba和wordcloud实现词云效果

  2. 0x00 前言 突然想做一个漏洞词云,看看哪些漏洞比较高频,如果某些厂商有漏洞公开(比如ly),也好针对性挖掘。就选x云吧(镜像站 http://wy.hxsec.com/bugs.php )。用jieba和wordcloud两个强大的第三方库,就可以轻松打造出x云漏洞词云。 github地址: https://github.com/theLSA/wooyun_wordcloud 本站下载地址:wooyun_wordcloud 0x01 爬取标题 直接上代码: #coding:utf-8 #
  3. 所属分类:其它

    • 发布日期:2020-12-23
    • 文件大小:112640
    • 提供者:weixin_38663701
  1. python库-jieba安装(很多库都可以这样安装)

  2. 方式一 直接安装:win+R=>cmd=>pip install jieba 亲测安装很多python库的时候大家获取会遇到很多坑,不管是pip命令、conda 命令(Anaconda图形化)或者pycharm导入安装,都会遇到安装等待很久或者失败的情况;这时可以考虑切换国内镜像源加速,但是有时国内的速度也会比国外慢,还是造成失败。经过尝试安装cv2,libsvm等多个库失败后,我力挺手动安装。 方式二 手动安装: 先在官网下载python-jieba,然后进入下载文件 note
  3. 所属分类:其它

    • 发布日期:2020-12-21
    • 文件大小:438272
    • 提供者:weixin_38703123
  1. 在pycharm安装jieba库和wordcloud库并生成词云图

  2. 安装jieba库 如果直接打开settings–>Project:xx–>Project Interpreter,点击右边的+号搜索jieba进行安装,可能过几分钟后它直接给你一个安装失败。(挖槽,我的内心是凉凉的)。 亲,在此还是建议你从网上下回来手动安装~ 官网地址:https://pypi.org/project/jieba/#files 下载后的压缩包进行解压,解压在随便一个目录都可以。 然后以管理员身份打开cmd,进入到解压目录,如D:\jieba-0.42.1,然后输入p
  3. 所属分类:其它

    • 发布日期:2020-12-21
    • 文件大小:323584
    • 提供者:weixin_38700320
  1. python-wordcloud词云

  2. pip下载所需库 pip install re pip install collections pip install numpy pip install jieba pip install wordcloud pip install PIL pip install matplotlib 但是pip默认下载很慢,超级慢,慢到死那种. 所以用清华的国内镜像源(老大的带宽也超级nb). windows平台下,在user目录下新建 pip的文件夹 新建pip.ini文件 写入 [global] in
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:111616
    • 提供者:weixin_38652870
  1. python实现的读取网页并分词功能示例

  2. 本文实例讲述了python实现的读取网页并分词功能。分享给大家供大家参考,具体如下: 这里使用分词使用最流行的分词包jieba,参考:https://github.com/fxsjy/jieba 或点击此处本站下载jieba库。 代码: import requests from bs4 import BeautifulSoup import jieba # 获取html url = http://finance.ifeng.com/a/20180328/16049779_0.shtml res
  3. 所属分类:其它

    • 发布日期:2021-01-02
    • 文件大小:232448
    • 提供者:weixin_38673548
  1. zhopenie:中文开放信息提取(基于树的三重关系提取模块)-源码

  2. 中文公开信息提取(Zhopenie) 安装 该模块大量使用pyltp 安装pyltp pip install pyltp 从下载NLP模型 为什么要使用LTP? LTP具有出色的语义解析模块,如下所示: 此外,一般而言,LTP的性能要优于其他开放源代码的中文NLP库,例如Jieba,这是SIGHAN Bakeoff 2005 PKU的510KB数据集的单词标记化的比较: 用法 提取器模块尝试将中文句子分解为三元关系(e1,e2,r),这可以由计算机理解例如,星展集团是亚洲最大的金融服务集
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:90112
    • 提供者:weixin_42133680