您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. wxPython in Action

  2. PART 1 INTRODUCTION TO WXPYTHON .............................. 1 1 ■ Welcome to wxPython 3 2 ■ Giving your wxPython program a solid foundation 29 3 ■ Working in an event-driven environment 56 4 ■ Making wxPython easier to handle with PyCrust 83 5 ■
  3. 所属分类:Python

    • 发布日期:2011-01-26
    • 文件大小:12582912
    • 提供者:prince360
  1. XSS漏洞检测工具

  2. XSS漏洞检测工具,Linux下安装使用,很简单 Examples of usage: ============================== * Simple injection from URL: $ python XSSer.py -u "http://host.com" ------------------- * Simple injection from File, with tor proxy and spoofing HTTP Referer headers: $ pyth
  3. 所属分类:网络安全

    • 发布日期:2012-06-11
    • 文件大小:203776
    • 提供者:dongjinyong
  1. gtest-1.6.0.zip

  2. Google C++ Testing Framework ============================ http://code.google.com/p/googletest/ Overview -------- Google's framework for writing C++ tests on a variety of platforms (Linux, Mac OS X, Windows, Windows CE, Symbian, etc). Based on the xU
  3. 所属分类:C++

    • 发布日期:2014-07-04
    • 文件大小:1048576
    • 提供者:qq_15933921
  1. tornado-2.4.1.tar

  2. Tornado ======= Tornado is an open source version of the scalable, non-blocking web server and and tools that power FriendFeed. Documentation and downloads are available at http://www.tornadoweb.org/ Tornado is licensed under the Apache Licence, Ver
  3. 所属分类:Python

    • 发布日期:2014-09-19
    • 文件大小:348160
    • 提供者:c12951217
  1. MITMf-master.zip

  2. 内含MITMf.zip BDFProxy.zip LANs.py the-backdoor-factory.zip DHCPShock-master.zip Available plugins ================= - ```SMBtrap``` - Exploits the 'SMB Trap' vulnerability on connected clients - ```Screenshotter``` - Uses HTML5 Canvas to render an ac
  3. 所属分类:网络攻防

    • 发布日期:2015-06-08
    • 文件大小:408576
    • 提供者:qq_20154743
  1. 试题导入.py.zip

  2. 通过REQUEST实现python从Excel中导入试题 import re import requests import xlrd save_url = "http://xxx" index = 1 headers = {"User-Agent": "xxx", "Host": "xxx.edu.cn", "X-Requested-With": "XMLHttpRequest", }
  3. 所属分类:Python

    • 发布日期:2019-06-14
    • 文件大小:2048
    • 提供者:weixin_44396499
  1. django-cors-headers-2.4.0.tar.gz

  2. python安装包,django-cors-headers-2.4.0.tar.gz,解压后python setup.py install进行安装.
  3. 所属分类:Python

    • 发布日期:2019-07-24
    • 文件大小:16384
    • 提供者:hzf16321
  1. base_spider.py

  2. 用requests封装的爬虫类,可以兼容get和post两种请求, 配置了代理, headers, cookie等功能. 可以根据实际情况进行继承使用. 在使用过程中, 英灵活使用重写和传参两种方法提高代码的可用性和可读性(如固定的cookie可以直接写到类的headers属性里, 变化的cookie可以从外部传参进来等.)
  3. 所属分类:互联网

    • 发布日期:2020-05-22
    • 文件大小:2048
    • 提供者:weixin_42620314
  1. headers.py

  2. python获取网站服务器的信息(比如天猫,抖音)
  3. 所属分类:网络监控

  1. 赶集网房源爬取.py

  2. 1.分区爬取了赶集网上某个城市的二手房/租房房源信息 2.爬取的具体数据包括:'标题描述', '房租', '整租/合租','面积','户型', '朝向', '装修情况', '楼层', '小区名称', '贴数', '所在地址', '联系人', '房屋描述', '小区房价','小区房价增长率', '区域商圈', '详细地址', '建筑类型', '物业费用', '产权类别', '容积率', '总户数', '绿化率', '建筑年代', '停车位', '开发商', '物业公司', '在租房源', '在售
  3. 所属分类:Python

    • 发布日期:2020-03-11
    • 文件大小:19456
    • 提供者:tjhxrrr
  1. Beautiful Soup 4官方翻译版.pdf

  2. Beautiful Soup 是一个可以从 HTML 或 XML 文件中提取数据的 Python 库.它能够通过你喜欢的转换器实现惯用的文档导航,查找,修改文档的方式.Beautiful Soup 会帮你节省数小时甚至数天的工作时间Kaclass="sisterhref="http://example.com/tillieid="link2> ##### Tillie and they lived at the bottom of a weLL. # # #(/body> f
  3. 所属分类:Python

    • 发布日期:2019-10-08
    • 文件大小:883712
    • 提供者:weixin_40238625
  1. programmingpython-ch15.pdf

  2. “Use the Source, Luke” TheprecedingchapterintroducedPython’sclient-sideInternettoolset—thestan- dardlibrarymodulesavailableforemail,FTP,networknews,andmore,fromwithin aPythonscr ipt.Thischapterpicksupwherethelastoneleftoffandpresentsacom- pleteclient
  3. 所属分类:Python

    • 发布日期:2019-08-18
    • 文件大小:3145728
    • 提供者:drjiachen
  1. RTSP 2.0 协议 PDF 带书签

  2. 官网上的文件,源文件没有目录,看的难受,花了些时间加了书签 RTSP 2.0-Real-Time Streaming Protocol Version 2.0(rfc7826).pdfC7826 RTSP 2.0 cember 2016 4. 4. Media-time Format 4.4.1. SMPTE-Relat Times tamps 28 4.4.2. Normal Play Time 垂D 4.4.3. Absolute T 4.5.Fea- ure tags..,,,,,,,,,
  3. 所属分类:直播技术

    • 发布日期:2019-07-03
    • 文件大小:619520
    • 提供者:qq_24276421
  1. 简单python 爬虫,获取 省市区、镇、街道 爬虫原码.py

  2. 简单python 爬虫,获取 省市区、镇、街道 爬虫原码 #!usr/bin/python #coding:utf-8 import requests import time from bs4 import BeautifulSoup # 国家统计局 2019年 行政区域划分网址 link = 'http://www.stats.gov.cn/tjsj/tjbz/tjyqhdmhcxhfdm/2019/' # 伪装 headers headers = { 'User-Agent': 'Moz
  3. 所属分类:算法与数据结构

    • 发布日期:2020-07-24
    • 文件大小:5120
    • 提供者:Yel_Liang
  1. Django跨域请求问题的解决方法示例

  2. 主要给大家介绍了关于Django跨域请求问题解决的相关资料,文中介绍的实现方法包括:使用django-cors-headers全局控制、使用JsonP,只能用于Get方法以及在views.py里设置响应头,只能控制单个接口,需要的朋友可以参考下
  3. 所属分类:其它

    • 发布日期:2020-09-20
    • 文件大小:63488
    • 提供者:weixin_38499349
  1. Python项目跨域问题解决方案

  2. 1.可以通过settings/dev.py的ALLOWED_HOSTS,设置允许访问 # 设置哪些客户端可以通过地址访问到后端 ALLOWED_HOSTS = [ 'api.luffycity.cn', ] 2.安装跨域模块(一下代码修改都是在settings.dev下进行的) pip install django-cors-headers -i https://pypi.douban.com/simple 添加应用   INSTALLED_APPS = (   ...   'cor
  3. 所属分类:其它

    • 发布日期:2020-12-17
    • 文件大小:32768
    • 提供者:weixin_38700430
  1. Python生成并下载文件后端代码实例

  2. txt文件 生成并下载txt文件: app.route('/download', methods=['GET']) def download(): content = "long text" response = make_response(content) response.headers["Content-Disposition"] = "attachment; filename=myfilename.txt" return response 运行app.py后,在浏览
  3. 所属分类:其它

    • 发布日期:2020-12-17
    • 文件大小:37888
    • 提供者:weixin_38613640
  1. python实现测试工具(一)——命令行发送get请求

  2. 本系列教程我们将使用python实现一些简单的测试工具,为了尽可能的简单,我们的工具以命令行工具为主。 本系列教程使用的python版本是3.6.3。 背景 这一节我们实现简单的命令行发送get请求的工具,使用方式如下: python get.py www.v2ex.com/api/nodes/show.json\?name\=python 接口地址: http://www.v2ex.com/api/nodes/show.json?name=python 状态码: 200 Headers:
  3. 所属分类:其它

    • 发布日期:2020-12-16
    • 文件大小:46080
    • 提供者:weixin_38738977
  1. django解决跨域请求的问题详解

  2. 解决方案 1.安装django-cors-headers pip install django-cors-headers 2.配置settings.py文件 INSTALLED_APPS = [ ... 'corsheaders', ... ] MIDDLEWARE_CLASSES = ( ... 'corsheaders.middleware.CorsMiddleware', 'django.middleware.common.CommonMiddlewa
  3. 所属分类:其它

    • 发布日期:2020-12-25
    • 文件大小:40960
    • 提供者:weixin_38657139
  1. python3模拟百度登录并实现百度贴吧签到示例分享(百度贴吧自动签到)

  2. baiduclient.py复制代码 代码如下:import urllib.parseimport gzipimport jsonimport refrom http.client import HTTPConnectionfrom htmlutils import TieBaParserimport httputils as utils # 请求头headers = dict()headers[“Connection”] = “keep-alive”headers[“Cache-Control
  3. 所属分类:其它

    • 发布日期:2020-12-24
    • 文件大小:43008
    • 提供者:weixin_38713801
« 12 »