您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. Selenium Testing Tools Cookbook中文版

  2. Selenium Testing Tools Cookbook中文版 非常好的selenium入门书籍,关键是中文版,知识点覆盖很全,适合初学者 附上目录看看 目弽 ................................................................................................................................ 9 引言 ................................
  3. 所属分类:软件测试

    • 发布日期:2015-08-09
    • 文件大小:3145728
    • 提供者:woodhead66
  1. Python入门网络爬虫之精华版

  2. Python入门网络爬虫之精华版 Python学习网络爬虫主要分3个大的版块:抓取,分析,存储 另外,比较常用的爬虫框架Scrapy,这里最后也详细介绍一下。 首先列举一下本人总结的相关文章,这些覆盖了入门网络爬虫需要的基本概念和技巧:宁哥的小站-网络爬虫 当我们在浏览器中输入一个url后回车,后台会发生什么?比如说你输入http://www.lining0806.com/,你就会看到宁哥的小站首页。 简单来说这段过程发生了以下四个步骤: 查找域名对应的IP地址。 向IP对应的服务器发送请求
  3. 所属分类:Python

    • 发布日期:2016-11-04
    • 文件大小:5120
    • 提供者:q6115759
  1. Selenium 测试工具食谱-web自动化测试

  2. PDF版,java,C#,python,ruby. 目弽 ................................................................................................................................ 9 引言 ......................................................................................
  3. 所属分类:C#

    • 发布日期:2017-06-02
    • 文件大小:3145728
    • 提供者:ycdx2001
  1. 用Python写网络爬虫.pdf

  2. 第1章 网络爬虫简介 1 1.1 网络爬虫何时有用 1 1.2 网络爬虫是否合法 2 1.3 背景调研 3 1.3.1 检查robots.txt 3 1.3.2 检查网站地图 4 1.3.3 估算网站大小 5 1.3.4 识别网站所用技术 7 1.3.5 寻找网站所有者 7 1.4 编写第一个网络爬虫 8 1.4.1 下载网页 9 1.4.2 网站地图爬虫 12 1.4.3 ID遍历爬虫 13 1.4.4 链接爬虫 15 1.5 本章小结 22 第2章 数据抓取 23 2.1 分析网页 23
  3. 所属分类:Python

    • 发布日期:2017-08-20
    • 文件大小:10485760
    • 提供者:learningcoder
  1. 用Python写网络爬虫PDF-理查德 劳森(Richard Lawson)

  2. 第1章 网络爬虫简介 1 1.1 网络爬虫何时有用 1 1.2 网络爬虫是否合法 2 1.3 背景调研 3 1.3.1 检查robots.txt 3 1.3.2 检查网站地图 4 1.3.3 估算网站大小 5 1.3.4 识别网站所用技术 7 1.3.5 寻找网站所有者 7 1.4 编写第 一个网络爬虫 8 1.4.1 下载网页 9 1.4.2 网站地图爬虫 12 1.4.3 ID遍历爬虫 13 1.4.4 链接爬虫 15 1.5 本章小结 22 第2章 数据抓取 23 2.1 分析网页 23
  3. 所属分类:Python

  1. Splunk_智能运维实战(高清带详细目录书签)

  2. Splunk是一种高扩充性且通用的数据引擎。它可以帮助企业收集、编入索引并智能化地分析由网络、应用程序以及移动设备等产生的机器数据,并最终帮助企业决策者做出准确的判断。本书集合了各种实用方法,目的是给读者提供指导和实用知识,以便读者掌握Splunk Enterprise 6的各种功能,从数据中提取出强大而有价值的运维智能。 《Splunk智能运维实战》共10章,第1章介绍将数据导入Splunk的基本方法;第2章介绍使用Splunk搜索数据的基本方法;第3章介绍如何创建仪表盘和数据的可视化图表;
  3. 所属分类:搜索引擎

    • 发布日期:2018-04-10
    • 文件大小:33554432
    • 提供者:tjrpxpx
  1. 首届中国医院网络安全攻防演练线下讲解晚上190703.pdf

  2. 首届中国医院网络安全攻防演练线下讲解晚上部分。 运维攻防赛,加固部分讲解。 运维攻防赛,攻防混战讲解。利言 奇安信 概要 lllllllllllllllllllllllllllllllllllll 本节是针对熟悉基本系统命令和编程思想的web安全初学者,包含Web基 础,常见web漏洞及相关利用技术,帮助初学者上手CTF竞赛。 目录 奇安信 ■Web基础 ■蛮荒时代 ■古典时代 CONTENTS ■未来时代 web 奇安信 Web架构 HTtp SQL 浏览器 Web服务 数据库 htm a
  3. 所属分类:网络攻防

    • 发布日期:2019-07-13
    • 文件大小:1048576
    • 提供者:diaonianyu
  1. python做反被爬保护的方法

  2. 网络爬虫,是一个自动提取网页的程序,它为搜索引擎从万维网上下载网页,是搜索引擎的重要组成。但是当网络爬虫被滥用后,互联网上就出现太多同质的东西,原创得不到保护。于是,很多网站开始反网络爬虫,想方设法保护自己的内容。 一: User-Agent +Referer检测 User-Agent 是HTTP协议的中的一个字段, 其作用是描述发出HTTP请求的终端的一些信息。 使得服务器能够识别客户使用的操作系统及版本、CPU 类型、浏览器及版本、浏览器渲染引擎、浏览器语言、浏览器插件等。 服务器通过这个字
  3. 所属分类:其它

    • 发布日期:2020-12-25
    • 文件大小:83968
    • 提供者:weixin_38546024
  1. Python识别html主要文本框过程解析

  2. 这篇文章主要介绍了python识别html主要文本框过程解析,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友可以参考下 在抓取网页的时候只想抓取主要的文本框,例如 csdn 中的主要文本框为下图红色框: 抓取的思想是,利用 bs4 查找所有的 div,用正则筛选出每个 div 里面的中文,找到中文字数最多的 div 就是属于正文的 div 了。定义一个抓取的头部抓取网页内容: import requests headers = { 'User-Ag
  3. 所属分类:其它

    • 发布日期:2020-12-20
    • 文件大小:163840
    • 提供者:weixin_38660327
  1. Motion-CCTV:运动识别CCTV系统-源码

  2. 中央电视台 动作识别CCTV系统将图像上传到Web服务器,可以从任何浏览器(甚至是移动设备)进行访问。 用法 Python脚本 设备上有任何摄像机输入(我正在使用连接到Raspberry Pi 3的室外安全摄像机) 进行Python 3安装并将需求安装在requirements.txt中 运行Main.Py并保持运行 网页界面 将./web/文件夹的全部内容放在主机的根目录下 填写config.ini中的信息(Webhost详细信息和DB连接详细信息) 用数据库连接详细信息替换./web/d
  3. 所属分类:其它

    • 发布日期:2021-02-26
    • 文件大小:151552
    • 提供者:weixin_42134537
  1. pydoku:使用OpenCV和机器学习在Python中解决数独问题-源码

  2. pydoku 使用OpenCV和深度学习在Python中解决数独问题。 该存储库包括以下内容: 图像处理 数独网格识别 网格提取 使用卷积神经网络模型进行数值预测(准确度为99%) 递归数独求解器 Flask Web前端(基于Pixel-Lite样板: : ) 数量预测基于使用Chars74K数据集训练的CNN模型: ://www.ee.surrey.ac.uk/CVSSP/demos/chars74k/ 去做 切换到tflite-model 整合网页前端 根据整个图片的面
  3. 所属分类:其它

    • 发布日期:2021-02-13
    • 文件大小:112197632
    • 提供者:weixin_42180863
  1. 介绍Python的Urllib库的一些高级用法

  2. 1.设置Headers 有些网站不会同意程序直接用上面的方式进行访问,如果识别有问题,那么站点根本不会响应,所以为了完全模拟浏览器的工作,我们需要设置一些Headers 的属性。 首先,打开我们的浏览器,调试浏览器F12,我用的是Chrome,打开网络监听,示意如下,比如知乎,点登录之后,我们会发现登陆之后界面都变化 了,出现一个新的界面,实质上这个页面包含了许许多多的内容,这些内容也不是一次性就加载完成的,实质上是执行了好多次请求,一般是首先请求HTML文 件,然后加载JS,CSS 等等,经过
  3. 所属分类:其它

    • 发布日期:2021-01-21
    • 文件大小:228352
    • 提供者:weixin_38704786
  1. Python网页正文转换语音文件的操作方法

  2. 天气真的是越来越冷啦,有时候我们想翻看网页新闻,但是又冷的不想把手拿出来,移动鼠标翻看。这时候,是不是特别想电脑像讲故事一样,给我们念出来呢?人生苦短,我有python啊,试试用 Python 来朗读给你听吧。 网页转换成语音,步骤无外乎: 网页正文识别,获取到正文的文本内容; 文本转语音,通过接口将文本转换成语音文件; 语音文件的发声,即将语音文件读出; 1 网页正文识别 之所以用 Python,就是因为 Python 有着丰富的库,网页正文识别也不在话下。这里用 readability、g
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:135168
    • 提供者:weixin_38653664
  1. Python爬虫文件下载图文教程

  2. 而今天我们要说的内容是:如果在网页中存在文件资源,如:图片,电影,文档等。怎样通过Python爬虫把这些资源下载下来。 1、怎样在网上找资源: 就是百度图片为例,当你如下图在百度图片里搜索一个主题时,会为你跳出一大堆相关的图片。 还有如果你想学英语,找到一个网站有很多mp3的听力资源,这些可能都是你想获取的内容。 现在是一个互联网的时代,只要你去找,基本上能找到你想要的任何资源。 2、怎样识别网页中的资源: 以上面搜索到的百度图片为例。找到了这么多的内容,当然你可以通过手动一张张的去保存,但这
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:266240
    • 提供者:weixin_38538224
  1. Final-Project:假新闻! 检测器旨在找到一种从假新闻中剔除真实新闻的方法。 我们创建了这种机器学习模型,以从社交媒体上的大量假新闻中识别真实新闻-源码

  2. “假新闻!” 探测器 背景与动机: 在社交媒体时代,警惕我们在所有平台上阅读的内容比以往任何时候都变得越来越重要。 社交媒体使与世界的联系变得更加容易,并且由于任何人都可以共享任何东西,因此对大众具有巨大的影响力。 我们想要做的是找到一种从假新闻中剔除真实新闻的方法。 而且,更重要的是,我们希望找到一种方法来衡量假新闻对整个社会的影响。 要回答的问题: 哪些新闻网站贡献最多的“假”新闻? 哪些新闻网站贡献了最多的真实新闻? 哪些是共享的,喜欢的和评论更多的“假”或“真实新闻”? 假新闻
  3. 所属分类:其它

    • 发布日期:2021-03-31
    • 文件大小:73400320
    • 提供者:weixin_42161450