您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. operadrive

  2. OperaDriver是WebDriver厂商Opera Software和志愿者开发了对于Opera的WebDriver实现。 OperaDriver可以驱动浏览器对您的网页运行不通的测试,就像真实用于一样在他们之间导航。他可以模仿象点击链接,输入文字,提交表单的动作,并把结果报告给您,这样你就知道网站是否象您希望的那样工作。 OperaDriver的终端用户模拟确保了你的整个堆栈(HTML、脚本、样式嵌入资源和后端设置)是正常的,并且没有繁琐的手工测试例程。
  3. 所属分类:网管软件

    • 发布日期:2015-07-25
    • 文件大小:3145728
    • 提供者:qq_30049203
  1. how_to_use_http_proxy.pdf

  2. 如何使用外部代理,浏览器使用,python使用,php使用等然后打开任意网站,会出现“ Windows安全”窗囗(如下图示),输入代 理的用户名和密码,勾选“记住我的凭据”确定即可。 Windows安全 lot 驾器204.74210.33要求用广和 密恒。 告:此版务器要求以不安全的方式发送你的用户名和密没有安全连接 的基本认还 口牛我的摇 二、在自己编写的程序中使用代理 1. Python语言 参见如下示例代码 示例一:使用 requests import requests proxies
  3. 所属分类:Web开发

    • 发布日期:2019-07-12
    • 文件大小:838656
    • 提供者:lanhao5635865
  1. 软件测试理论

  2. 软件测试理论篇 一、为什么软件要做软件测试 纵观历史事件说明软件测试的重要性 二、软件测试的概念 1、测试是为了发现错误而执行程序的过程 ; 2、在规定条件下,对程序进行操作,以发现错误,以软件质量进行评估 ; 3、使用人工或者自动化手段,来运行或者测试某个子系统的过程,其目的在于检查它是否 存在满足规定需求或弄清预期结果与实际结果之间的差别( IEEE :美国电气和电子工程师 协会)应用程序管理工具 2、软件基础知识:软件工程,软件生命周期、测试理论和测试方式有较深的理解 3、软件测试技术,方
  3. 所属分类:软件测试

    • 发布日期:2019-01-11
    • 文件大小:37888
    • 提供者:qq_33303936
  1. python爬虫 使用真实浏览器打开网页的两种方法总结

  2. 下面小编就为大家分享一篇python爬虫 使用真实浏览器打开网页的两种方法总结,具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧
  3. 所属分类:其它

    • 发布日期:2020-09-20
    • 文件大小:44032
    • 提供者:weixin_38730389
  1. Python获取浏览器窗口句柄过程解析

  2. 句柄(handle)是C++程序设计中经常提及的一个术语。它并不是一种具体的、固定不变的数据类型或实体,而是代表了程序设计中的一个广义的概念。句柄一般是指获取另一个对象的方法——一个广义的指针,它的具体形式可能是一个整数、一个对象或就是一个真实的指针,而它的目的就是建立起与被访问对象之间的惟一的联系 使用 selenium 获取窗口句柄 from selenium import webdriver import time # chromedriver的绝对路径 # driver_path =
  3. 所属分类:其它

    • 发布日期:2020-12-17
    • 文件大小:47104
    • 提供者:weixin_38633157
  1. python使用selenium爬虫知乎的方法示例

  2. 说起爬虫一般想到的情况是,使用 python 中都通过 requests 库获取网页内容,然后通过 beautifulSoup 进行筛选文档中的标签和内容。但是这样有个问题就是,容易被反扒机制所拦住。 反扒机制有很多种,例如知乎:刚开始只加载几个问题,当你往下滚动时才会继续往下面加载,而且在往下滚动一段距离时就会出来一个登陆的弹框。 这样的机制对于通过获取服务器返回内容的爬虫方式进行了限制,我们只能获得前几个回答,而没办法或许后面的回答。 所以需要使用 selenium 模拟真实浏览器进行操作。
  3. 所属分类:其它

    • 发布日期:2020-12-16
    • 文件大小:73728
    • 提供者:weixin_38522552
  1. python爬虫 使用真实浏览器打开网页的两种方法总结

  2. 1.使用系统自带库 os 这种方法的优点是,任何浏览器都能够使用, 缺点不能自如的打开一个又一个的网页 import os os.system('"C:/Program Files/Internet Explorer/iexplore.exe" http://www.baidu.com') 2.使用python 集成的库 webbroswer python的webbrowser模块支持对浏览器进行一些操作,主要有以下三个方法: import webbrowser webbrowser.op
  3. 所属分类:其它

    • 发布日期:2020-12-25
    • 文件大小:50176
    • 提供者:weixin_38590790
  1. Python爬虫小技巧之伪造随机的User-Agent

  2. 前言 不管是做开发还是做过网站的朋友们,应该对于User Agent一点都不陌生,User Agent 中文名为用户代理,简称 UA,它是一个特殊字符串头,使得服务器能够识别客户使用的操作系统及版本、CPU 类型、浏览器及版本、浏览器渲染引擎、浏览器语言、浏览器插件等 在Python爬虫的过程中经常要模拟UserAgent, 因此自动生成UserAgent十分有用 通过UA来判断不同的设备或者浏览器是开发者最常用的方式方法,这个也是对于Python反爬的一种策略,但是有盾就有矛啊 写好爬虫的原则
  3. 所属分类:其它

    • 发布日期:2020-12-24
    • 文件大小:64512
    • 提供者:weixin_38624628
  1. python中urllib.unquote乱码的原因与解决方法

  2. 发现问题 Python中的urllib模块用来处理url相关的操作,unquote方法对应javascr ipt中的urldecode方法,它对url进行解码,把类似”%xx”的字符替换成单个字符,例如:“法国红酒”解码后会转换成“法国红酒”,但是使用过程中,如果姿势不对,最终转换出来的字符会是乱码“法国红酔。 笔者在一个真实的Tornado应用中就遇到了这样的问题,浏览器通过请求传递到后台后,获取参数的值后: name = self.get_argument("name",
  3. 所属分类:其它

    • 发布日期:2020-12-24
    • 文件大小:60416
    • 提供者:weixin_38514872
  1. 【避坑 超详细】Ubuntu使用python的selenium以及chrome模拟真实浏览器访问网页

  2. 在Ubuntu系统上使用python的selenium,另外加上chrome和chromedriver,用于模拟浏览器访问网页。 下面教程在阿里云的Ubuntu 14.04 64位测试成功,其他linux系统大同小异。   安装chrome浏览器 1、更新系统 apt-get update 2、安装依赖 sudo apt-get install libxss1 libappindicator1 libindicator7 3、下载安装包 wget https://dl.google.com
  3. 所属分类:其它

    • 发布日期:2020-12-20
    • 文件大小:123904
    • 提供者:weixin_38731226
  1. python爬虫豆瓣网的模拟登录实现

  2. 思路 一、想要实现登录豆瓣关键点 分析真实post地址 —-寻找它的formdata,如下图,按浏览器的F12可以找到。 实战操作 实现:模拟登录豆瓣,验证码处理,登录到个人主页就算是success 数据:没有抓取数据,此实战主要是模拟登录和处理验证码的学习。要是有需求要抓取数据,编写相关的抓取规则即可抓取内容。 登录成功展示如图: spiders文件夹中DouBan.py主要代码如下: # -*- coding: utf-8 -*- import scrapy,urllib
  3. 所属分类:其它

    • 发布日期:2020-12-31
    • 文件大小:130048
    • 提供者:weixin_38637918
  1. Python对HTML转义字符进行反转义的实现方法

  2. 什么是转义字符 在 HTML 中 、& 等字符有特殊含义( 用于标签中,& 用于转义),他们不能在 HTML 代码中直接使用,如果要在网页中显示这些符号,就需要使用 HTML 的转义字符串(Escape Sequence),例如 < 的转义字符是 <,浏览器渲染 HTML 页面时,会自动把转移字符串换成真实字符。 转义字符(Escape Sequence)由三部分组成:第一部分是一个 & 符号,第二部分是实体(Entity)名字,第三部分是一个分号。 比如,要显示小于号(<)
  3. 所属分类:其它

    • 发布日期:2020-12-31
    • 文件大小:62464
    • 提供者:weixin_38709466
  1. 详解Selenium+PhantomJS+python简单实现爬虫的功能

  2. Selenium 一、简介 selenium是一个用于Web应用自动化程序测试的工具,测试直接运行在浏览器中,就像真正的用户在操作一样 selenium2支持通过驱动真实浏览器(FirfoxDriver,IternetExplorerDriver,OperaDriver,ChromeDriver) selenium2支持通过驱动*面浏览器(HtmlUnit,PhantomJs) 二、安装 Windows 第一种方法是:下载源码安装,下载地址(https://pypi.python.
  3. 所属分类:其它

    • 发布日期:2020-12-26
    • 文件大小:81920
    • 提供者:weixin_38689055
  1. kuaishou-crawler:如您所见,快手爬虫-源码

  2. 快手爬虫 如您所见,用于抓拍图片和视频的爬虫 最新的 版本0.5.0(2020-08-06) 查看 现在已经提供exe版本一键执行|或者查看如何运行代码 的Python 3.7.3 要求 json 操作系统 美丽汤 回覆 自v0.3.0版本开始,已使用面向对象重构,核心代码在lib/crawler.py中,启动文件为crawl.py / ks.py 功能:根据用户ID来爬取快手用户的作品,包括视频和图片 在预设文件(使用exe版本忽略此文件)中一行行填充用户ID,若要创建文件会自动创建(当前版本
  3. 所属分类:其它

    • 发布日期:2021-03-20
    • 文件大小:7340032
    • 提供者:weixin_42154650
  1. latent-composition-源码

  2. 潜在组成 | 使用潜在空间回归来分析和利用GAN中的组成。 ( ,( ,( 先决条件 Linux 的Python 3 CPU或NVIDIA GPU + CUDA CuDNN 目录: 在浏览器中运行它,而无需在本地安装任何东西 -下载预训练的模型和资源 -使用预快速入门 -用于交互式合成的Jupyter笔记本 -培训编码器的管道 :演示使用蒙版编码器调查GAN中的图像先验。 :使用蒙版编码器多个图像的界面。 :对于真实图像,将编码器为特定图像,以实现更好的重建。 进一步的合成可
  3. 所属分类:其它

    • 发布日期:2021-03-12
    • 文件大小:3145728
    • 提供者:weixin_42107374
  1. 详解用Python处理HTML转义字符的5种方式

  2. 写爬虫是一个发送请求,提取数据,清洗数据,存储数据的过程。在这个过程中,不同的数据源返回的数据格式各不相同,有 JSON 格式,有 XML 文档,不过大部分还是 HTML 文档,HTML 经常会混杂有转移字符,这些字符我们需要把它转义成真正的字符。 什么是转义字符 在 HTML 中 、& 等字符有特殊含义( 用于标签中,& 用于转义),他们不能在 HTML 代码中直接使用,如果要在网页中显示这些符号,就需要使用 HTML 的转义字符串(Escape Sequence),例如 < 的转义字符
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:50176
    • 提供者:weixin_38679178
  1. python实现随机调用一个浏览器打开网页

  2. 前两天总结了一下python爬虫 使用真实浏览器打开网页的两种方法总结 但那仅仅是总结一下而已,今天本文来实战演练一下 依然使用的是 webbrowser 这个模块 来调用浏览器 关于的三种打开方式在上一篇文章中已经说过了,这里不再赘述 如果没有特意注册,那么将会是使用默认的浏览器来打开网页,如下: #默认浏览器 #coding:utf-8 import webbrowser as web #对导入的库进行重命名 def run_to_use_default_browser_open_url(
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:64512
    • 提供者:weixin_38614377
  1. python 爬虫网页登陆的简单实现

  2. 相信各位在写 python 爬虫的时候会在爬取网站时遇到一些登陆的问题,比如说登陆时遇到输入验证码比如说登录时遇到图片拖拽等验证,如何解决这类问题呢?一般有两种方案。 使用 cookie 登陆 我们可以通过使用 cookies 登陆,首先获取浏览器的 cookie,然后利用 requests 库直接登陆 cookie,服务器就会认为你是一个真实登陆用户,所以就会返回给你一个已登陆的状态,这个方法是很好用的,基本上绝大部分的需要验证码登录的网站都可以通过 cookie 登录来解决, #! -*
  3. 所属分类:其它

    • 发布日期:2021-01-19
    • 文件大小:53248
    • 提供者:weixin_38746166