您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. 解析Python3中的Import

  2. 本文通过示例代码带领大家一起学习Python3中的Import知识,非常不错,具有一定的参考借鉴价值,需要的朋友可以参考下
  3. 所属分类:其它

    • 发布日期:2020-09-18
    • 文件大小:64512
    • 提供者:weixin_38686542
  1. Python自动巡检H3C交换机实现过程解析

  2. 1.通过netmiko模块登录交换机,协议ssh,执行收集信息命令,保存至txt文件 2.过滤txt文件中的内容,保存到excel,使用xlwt模块实现。 3.sendmai发送excel邮件。或者发送给钉钉机器人也可以 4.使用crond定时发送巡检报表。 代码如下 #!/usr/bin/python3 #H3c交换机 import time from netmiko import ConnectHandler now = time.strftime("%Y%m%d",time.loc
  3. 所属分类:其它

    • 发布日期:2020-12-17
    • 文件大小:35840
    • 提供者:weixin_38673694
  1. 浅谈python3.x pool.map()方法的实质

  2. 我使用多进程的一般方式,都是multiprocessing模块中的Pool.map()方法。下面写一个简单的示例和解析。至于此种方法使用多进程的效率问题,还希望大佬予以指正。 示例: """ 探索pool.map多进程执行方式的实质 """ from multiprocessing import Pool from time import sleep from datetime import datetime class forMap: def __init__(self): se
  3. 所属分类:其它

    • 发布日期:2020-12-23
    • 文件大小:51200
    • 提供者:weixin_38606897
  1. 使用python3批量下载rbsp数据的示例代码

  2. 1. 原始网站 https://www.rbsp-ect.lanl.gov/data_pub/rbspa/ 2. 算法说明 进入需要下载的数据所在的目录,获取并解析该目录下的信息,解析出cdf文件名后,将cdf文件下载到内存中,随后保存到硬盘中。程序使用python3实现。 3. 程序代码 #!/bin/python3 # get the rbsp data # writen by Liangjin Song on 20191219 import sys import requests fr
  3. 所属分类:其它

    • 发布日期:2020-12-23
    • 文件大小:177152
    • 提供者:weixin_38670949
  1. Python timer定时器两种常用方法解析

  2. 这篇文章主要介绍了Python timer定时器两种常用方法解析,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友可以参考下 方法一,使用线程中现成的: 这种一般比较常用,特别是在线程中的使用方法,下面是一个例子能够很清楚的说明它的具体使用方法: #! /usr/bin/python3 #! -*- conding: utf-8 -*- import threading import time def fun_timer(): print(time.
  3. 所属分类:其它

    • 发布日期:2020-12-23
    • 文件大小:37888
    • 提供者:weixin_38722721
  1. 零基础/小白/python萌新也能学 爬取静态网页信息并解析后存储在excel中/爬虫

  2. 本文使用的是python3 只用了一个需要导入的包xlwt 下面是笔者的一段废话 嘿嘿。 记得我才开始接触python的时候,天天听网上这个公开课那个公开课让报班学爬虫,说爬虫有多赚钱多厉害(但是他们的课贵啊QAQ)。我那时候就想不掏钱自己学,折腾了一段时间,也有一些小的经验。当时我学的时候就经常会面临看代码一脸懵逼的状态,于是今天就像做一个简单的爬虫并且具体解释一下代码,看完应该就能学会。做一个萌新友好型文章 ( ̄▽ ̄)~* 完整代码,下面都是分开讲的所以完整代码放到前面。 import ur
  3. 所属分类:其它

    • 发布日期:2020-12-22
    • 文件大小:162816
    • 提供者:weixin_38678406
  1. django创建超级用户过程解析

  2. 这篇文章主要介绍了django创建超级用户过程解析,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友可以参考下 终端输入 python3 manage.py createsuperuser 按照提示进行操作即可 不输入用户名会给你默认一个用户名,输入密码是在原处不动的,其实已经在输入了。 创建超级用户是为了能够登陆admin账户给数据库中添加数据。 需要添加数据的表格要放在admin里 from django.contrib import admin #
  3. 所属分类:其它

    • 发布日期:2021-01-01
    • 文件大小:38912
    • 提供者:weixin_38623000
  1. Python解析、提取url关键字的实例详解

  2. 解析url用的类库: python2版本: from urlparse import urlparse import urllib python3版本: from urllib.parse import urlparse import urllib.request 研究了不同的url规则发现:只要在搜索关键字是用=嫁接的,查询的关键在解析后的query里 如果不是用=嫁接,查询的关键在解析后的path里。 解析的规则都是一样的,正则如下:(6中不同情况的组合) 另外host为‘s.weib
  3. 所属分类:其它

    • 发布日期:2021-01-01
    • 文件大小:64512
    • 提供者:weixin_38577261
  1. 解析Python3中的Import

  2. Python import的搜索路径 import的搜索路径为: 搜索「内置模块」(built-in module) 搜索 sys.path 中的路径 而sys.path在初始化时,又会按照顺序添加以下路径: foo.py 所在目录(如果是软链接,那么是真正的 foo.py 所在目录)或当前目录; 环境变量 PYTHONPATH中列出的目录(类似环境变量 PATH,由用户定义,默认为空); site 模块被 import 时添加的路径1(site 会在运行时被自动 import)。
  3. 所属分类:其它

    • 发布日期:2020-12-31
    • 文件大小:63488
    • 提供者:weixin_38735804
  1. Python 3.6 中使用pdfminer解析pdf文件的实现

  2. 所使用python环境为最新的3.6版本 一、安装pdfminer模块 安装anaconda后,直接可以通过pip安装 pip install pdfminer3k   如上图所示安装成功。 二、在IDE中进行编码 #!/usr/bin/env python # encoding: utf-8 author: wugang software: PyCharm file: prase_pdf.py time: 2017/3/3 0003 11:16 import sys import
  3. 所属分类:其它

    • 发布日期:2020-12-31
    • 文件大小:64512
    • 提供者:weixin_38685831
  1. 使用Python实现windows下的抓包与解析

  2. 系统环境:windows7,选择windows系统是因为我对自己平时日常机器上的流量比较感兴趣 python环境:python2.7 ,这里不选择python3的原因,是因为接下来要用到的scapy包在python3中安装较于python2要麻烦得多。如果你习惯于用python3,数据包的分析完全可以放在3下面做,因为抓包和分析是两个完全独立的过程。 需要的python包:scapy和dpkt 抓包代码: from scapy.sendrecv import sniff from scapy.
  3. 所属分类:其它

    • 发布日期:2020-12-31
    • 文件大小:132096
    • 提供者:weixin_38592643
  1. html_builder:简单的纯Python3 HTML构建器-源码

  2. html_builder 什么 一个简单的纯python3 html生成器(或生成器)。 什么不是 DOM编辑器 HTML解析器 表现出色 经过广泛测试,符合任何规格 为什么 在服务器端渲染的Web应用程序上工作时,我发现从“ python模式”更改为“ html模式”或“模板模式”涉及很多认知工作。我想要一种无需离开“ python模式”即可编写html的方法。 html_builder是结果。它不会替代使用html所需的知识。您仍然需要知道/理解您的html需要是什么,但是它确实启用了以更p
  3. 所属分类:其它

    • 发布日期:2021-03-18
    • 文件大小:7168
    • 提供者:weixin_42122881
  1. pdf4py:用Python 3编写的没有外部依赖关系的PDF解析器-源码

  2. pdf4py 用Python 3编写的PDF解析器,没有外部依赖关系。 软件包pdf4py允许用户通过访问其原子组件即PDF对象,以非常低的级别和非常灵活的方式来分析PDF文件。 所有这些都通过一个非常简单的API进行,可用于构建更高级别的功能(例如,文本和/或图像提取)。 特别是,它定义了Parser类,该类读取PDF文档的交叉引用表,并使用其条目使用户能够在文件中定位PDF对象,并将其解析为合适的Python对象。 免责声明:该软件包尚未达到稳定版本(> = 1.0.0)。 尽管
  3. 所属分类:其它

    • 发布日期:2021-03-13
    • 文件大小:11534336
    • 提供者:weixin_42139460
  1. pharmpy:用于药理学的库和CLI-源码

  2. 药理学 Pharmpy是用于药理学的库。 在R中,可以通过网状结构或通过其内置的命令行界面将其用作常规python程序包。 Pharmpy的架构使其能够处理不同类型的模型格式和数据格式,并公开了与模型无关的API。 当前功能: 解析NONMEM模型文件的许多部分 解析NONMEM结果文件 CLI支持数据集过滤,重采样,匿名化和查看 Pharmpy由Uppsala University Pharmacometrics集团开发。 安装 从PyPI安装最新的稳定版本: pip install
  3. 所属分类:其它

    • 发布日期:2021-02-26
    • 文件大小:1048576
    • 提供者:weixin_42116672
  1. flask-request-args-parser:Pyhton3包,实现了flask.request args解析-源码

  2. 烧瓶请求参数解析器 实现flask.request args解析的Python3包。 目录 分期付款 使用点子: pip install flask-request-args-parser 依存关系 如何使用 在代码中的某处: from flask_request_args_parser import parse_params def _param1_validator ( v ): if v <= 0 : return None , ' \' param1 \
  3. 所属分类:其它

    • 发布日期:2021-02-04
    • 文件大小:12288
    • 提供者:weixin_42140716
  1. tree_parser:PyTorch中的一个简单的依赖解析器-源码

  2. 简单依赖解析器 这个仓库包含一个基于BERT的依赖解析器的简单代码。 我想从头开始构建一个,最终对它在NLP的当前水平变得如此容易感到惊讶。 主要灵感来自以及 。 安装 请在安装前安装 git clone https://github.com/fractalego/tree_parser.git cd tree_parser virtualenv .env --python=/usr/bin/python3 pip install . 例 下面是一个示例代码(在文件中) import os
  3. 所属分类:其它

    • 发布日期:2021-02-04
    • 文件大小:191488
    • 提供者:weixin_42098104
  1. python2与python3爬虫中get与post对比解析

  2. python2中的urllib2改为python3中的urllib.request 四种方式对比: python2的get # coding=utf-8 import urllib import urllib2 word = urllib.urlencode({wd:百度}) url = 'http://www.baidu.com/s' + '?' + word request = urllib2.Request(url) print urllib2.urlopen(request).read
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:29696
    • 提供者:weixin_38569675
  1. Python3 pickle对象串行化代码实例解析

  2. 1.pickle对象串行化 pickle模块实现了一个算法可以将任意的Python对象转换为一系列字节。这个过程也被称为串行化对象。可以传输或存储表示对象的字节流,然后再重新构造来创建有相同性质的新对象。 1.1 编码和解码字符串中的数据 第一个例子使用dumps()将一个数据结构编码为一个字符串,然后把这个字符串打印到控制台。它使用了一个完全由内置类型构成的数据结构。任何类的实例都可以pickled,如后面的例子所示。 import pickle import pprint data = [
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:135168
    • 提供者:weixin_38690079
  1. Python reduce函数作用及实例解析

  2. 语法 在python3中,内置函数中已经没有reduce了。要使用reduce,需要从functools模块里引入 可以看到,reduce有三个参数,第一个是函数function,第二个是序列sequence,第三个是initial,为初始值,默认为None 作用 对序列中的元素进行累积 返回值 返回函数的计算结果 代码实例 from functools import reduce from functools import reduce def add(x, y): return x
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:48128
    • 提供者:weixin_38674569
  1. 基于python实现获取网页图片过程解析

  2. 环境:python3, 要安装bs4这个第三方库 获取请求头的方法 这里使用的是Chrome浏览器。 打开你想查询的网站,按F12,或者鼠标右键一下选择检查。会弹出如下的审查元素页面: 然后点击上方选项中的Network选项: 此时在按Ctrl+R: 选择下方框中的第一个,单击: 选择Headers选项,其中就会有Request Headers,包括你需要的信息。 介绍:这个程序是用来批量获取网页的图片,用于新手入门 注意:由于是入门的程序在获取某些网页的图片时会出问题!!!!! i
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:49152
    • 提供者:weixin_38506138
« 12 »