您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. Python Cookbook

  2. 第1章 文本 1 引言 1 1.1 每次处理一个字符 6 1.2 字符和字符值之间的转换 7 1.3 测试一个对象是否是类字符串 8 1.4 字符串对齐 10 1.5 去除字符串两端的空格 11 1.6 合并字符串 11 1.7 将字符串逐字符或逐词反转 14 1.8 检查字符串中是否包含某字符集合中的字符 15 1.9 简化字符串的translate方法的使用 18 1.10 过滤字符串中不属于指定集合的字符 20 1.11 检查一个字符串是文本还是二进制 23 1.12 控制大小写 25
  3. 所属分类:Python

    • 发布日期:2013-07-31
    • 文件大小:59768832
    • 提供者:winlrou
  1. Python.Cookbook(第2版)中文版

  2. 第1章 文本 引言 1 1.1 每次处理一个字符 1.2 字符和字符值之间的转换 1.3 测试一个对象是否是类字符串 1.4 字符串对齐 1.5 去除字符串两端的空格 1.6 合并字符串 1.7 将字符串逐字符或逐词反转 1.8 检查字符串中是否包含某字符集合中的字符 1.9 简化字符串的translate方法的使用 1.10 过滤字符串中不属于指定集合的字符 1.11 检查一个字符串是文本还是二进制 1.12 控制大小写 1.13 访问子字符串 1.14 改变多行文本字符串的缩进 1.15
  3. 所属分类:专业指导

    • 发布日期:2015-04-23
    • 文件大小:71303168
    • 提供者:lengwuqin
  1. Python.Cookbook(第2版)中文版

  2. 第1章 文本 1 引言 1 1.1 每次处理一个字符 6 1.2 字符和字符值之间的转换 7 1.3 测试一个对象是否是类字符串 8 1.4 字符串对齐 10 1.5 去除字符串两端的空格 11 1.6 合并字符串 11 1.7 将字符串逐字符或逐词反转 14 1.8 检查字符串中是否包含某字符集合中的字符 15 1.9 简化字符串的translate方法的使用 18 1.10 过滤字符串中不属于指定集合的字符 20 1.11 检查一个字符串是文本还是二进制 23 1.12 控制大小写 25
  3. 所属分类:Python

    • 发布日期:2016-04-26
    • 文件大小:71303168
    • 提供者:skyfishsha
  1. 最新Python3.5零基础+高级+完整项目(28周全)培训视频学习资料

  2. 最新Python3.5零基础+高级+完整项目(28周全)培训视频学习资料;本资料仅用于学习。 【课程内容】 第1周 开课介绍 python发展介绍 第一个python程序 变量 字符编码与二进制 字符编码的区别与介绍 用户交互程序 if else流程判断 while 循环 while 循环优化版本 for 循环及作业要求 第2周 本节鸡汤 模块初识 pyc是什么 python数据类型 bytes数据类型 列表的使用 元组与购物车程序练习 购物车程序练习实例 字符串常用操作 字典的使用 三级菜单
  3. 所属分类:Python

    • 发布日期:2018-06-13
    • 文件大小:94
    • 提供者:jihaichen
  1. Python写的一个定时重跑获取数据库数据

  2. 本文给大家分享基于python写的一个定时重跑获取数据库数据的方法,非常不错,具有参考借鉴价值,需要的朋友参考下
  3. 所属分类:其它

    • 发布日期:2020-09-21
    • 文件大小:67584
    • 提供者:weixin_38609765
  1. 定时爬取全国肺炎疫情信息并制作web接口

  2. 定时爬取全国肺炎疫情信息并制作web接口 使用腾讯接口:https://view.inews.qq.com/g2/getOnsInfo?name=disease_h5 数据库:MySQL 库:request 语言:python 3.7 因为边爬边存的过程中出现错误,所以换思路,先爬下来存储为json格式,然后解析json,再进行数据的处理。 #coding=gbk import requests import json import flask import time import pymysq
  3. 所属分类:其它

    • 发布日期:2020-12-22
    • 文件大小:203776
    • 提供者:weixin_38620741
  1. python 爬虫 实现增量去重和定时爬取实例

  2. 前言: 在爬虫过程中,我们可能需要重复的爬取同一个网站,为了避免重复的数据存入我们的数据库中 通过实现增量去重 去解决这一问题 本文还针对了那些需要实时更新的网站 增加了一个定时爬取的功能; 本文作者同开源中国(殊途同归_); 解决思路: 1.获取目标url 2.解析网页 3.存入数据库(增量去重) 4.异常处理 5.实时更新(定时爬取) 下面为数据库的配置 mysql_congif.py: import pymysql def insert_db(db_table, issue, ti
  3. 所属分类:其它

    • 发布日期:2020-12-20
    • 文件大小:47104
    • 提供者:weixin_38686231
  1. BigDataSalaryAnaliySystem:大数据招聘信息分析平台-源码

  2. ##大数据招聘信息分析平台##这是依据爬取程序,爬取到的招聘信息进行各维度的分析并展现最终结果的平台 ###平台环境### Centos 7 Hadoop-2.5.1 动物园管理员3.4.6 HBase-1.1.2 蜂巢1.2.1 MySQL的5.6 的Python 3.5 JDK 1.8 建造过程可参考: ###平台项目结构### 爬取项目(爬虫),使用Python编写 加载数据到HBase数据库项目,使用Java编写 Web端展现项目,使用Java编写 ###各项目功能###
  3. 所属分类:其它

    • 发布日期:2021-03-11
    • 文件大小:89128960
    • 提供者:weixin_42122988
  1. tuixue.online-visa:https:tuixue.onlinevisa美国签证预约状态网站的实时显示预约美帝签证各签证处最初时间的爬虫-源码

  2. 美国签证预约时间自动化爬取+推送通知 包含国内以及国外各种地区,目前包含: CGI系统:中国,柬埔寨,新加坡,韩国,越南,巴拿马,澳大利亚,日本,尼泊尔,泰国 AIS系统:英国,加拿大,阿联酋,厄瓜多尔,法国,塞尔维亚,土耳其,希腊,哥伦比亚,墨西哥 总览 整体逻辑为前端服务器定时向蠕虫服务器发送数据请求,拉取到其本地,更新数据库,推送通知。 爬虫服务器使用Django编译,代码位于文件夹下,CGI系统使用纯请求拉取数据,AIS系统由于有recaptcha2,使用请求和Selenium/ xd
  3. 所属分类:其它

    • 发布日期:2021-02-10
    • 文件大小:11534336
    • 提供者:weixin_42132598
  1. ZhihuSpider:知乎用户公开个人信息爬虫,能够爬取用户关注关系,基于Python,使用代理,多线程-源码

  2. Python知乎用户信息爬虫 特色 除了爬取用户信息外,还可以选择爬取用户之间的关注关系 使用多线程爬取,并可以自行配置使用的线程数 使用Redis作为任务价值 使用高匿代理IP进行数据的爬取,并重新后会重新分配新的可用代理,避免重新访问导致本机IP被封 可以启用邮件定时通知功能 运行要求 Python版本:3.0以上 数据库:MySQL,Redis 使用到的库 项目中使用到的Python第三方库如下: 第三方库: 请求-一个非常好用的请求库, //docs.python-requests.
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:37888
    • 提供者:weixin_42181686
  1. python打造爬虫代理池过程解析

  2. 最近在使用爬虫爬取数据时,经常会返回403代码,大致意思是该IP访问过于频繁,被限制访问。限制IP访问网站最常用的反爬手段了,其实破解也很容易,就是在爬取网站是使用代理即可,这个IP被限制了,就使用其他的IP。对于高大上的公司来说,他们基本都使用收费的代理,基本不会有什么问题,比较稳定。像我这样的矮矬穷,肯定是用不起收费的代理。一般都是使用国内免费的代理,网上也有很多提供免费的代理。 很多人都是从网上爬取一批免费的代理IP,存放在存储媒介中,例如excel文件或者数据库。定时维护代理,保证代理可
  3. 所属分类:其它

    • 发布日期:2021-01-21
    • 文件大小:71680
    • 提供者:weixin_38660051
  1. Python写的一个定时重跑获取数据库数据

  2. 做大数据的童鞋经常会写定时任务跑数据,由于任务之间的依赖(一般都是下游依赖上游的数据产出),所以经常会导致数据获取失败,因为很多人发现数据失败后 都会去查看日志,然后手动去执行自己的任务。下面我实现了一个自动重复执行去数据库取数,如果失败后自动重新去获取,直到把数据获取到。 建数据表: CREATE TABLE `testtable` ( 2 `id` int(11) unsigned NOT NULL AUTO_INCREMENT, 3 `name` varchar(20) NOT NULL
  3. 所属分类:其它

    • 发布日期:2021-01-21
    • 文件大小:72704
    • 提供者:weixin_38601311
  1. python 爬虫 实现增量去重和定时爬取实例

  2. 前言: 在爬虫过程中,我们可能需要重复的爬取同一个网站,为了避免重复的数据存入我们的数据库中 通过实现增量去重 去解决这一问题 本文还针对了那些需要实时更新的网站 增加了一个定时爬取的功能; 本文作者同开源中国(殊途同归_); 解决思路: 1.获取目标url 2.解析网页 3.存入数据库(增量去重) 4.异常处理 5.实时更新(定时爬取) 下面为数据库的配置 mysql_congif.py: import pymysql def insert_db(db_table, issue, time_s
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:46080
    • 提供者:weixin_38544075
  1. python爬虫教程:实现增量去重和定时爬取实例

  2. 前言: 在爬虫过程中,我们可能需要重复的爬取同一个网站,为了避免重复的数据存入我们的数据库中 通过实现增量去重 去解决这一问题 本文还针对了那些需要实时更新的网站 增加了一个定时爬取的功能; 本文作者同开源中国(殊途同归_); 解决思路: 1.获取目标url 2.解析网页 3.存入数据库(增量去重) 4.异常处理 5.实时更新(定时爬取) 下面为数据库的配置 mysql_congif.py: import pymysql def insert_db(db_table, issue, time_s
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:45056
    • 提供者:weixin_38732454
  1. 公认8个效率最高的爬虫框架

  2. 一些较为高效的Python爬虫框架。分享给大家。 1.Scrapy Scrapy是一个为了爬取网站数据,提取结构性数据而编写的应用框架。 可以应用在包括数据挖掘,信息处理或存储历史数据等一系列的程序中。。用这个框架可以轻松爬下来如亚马逊商品信息之类的数据。 项目地址:https://scrapy.org/ 2.PySpider pyspider 是一个用python实现的功能强大的网络爬虫系统,能在浏览器界面上进行脚本的编写,功能的调度和爬取结果的实时查看,后端使用常用的数据库进行爬取结果的存储
  3. 所属分类:其它

    • 发布日期:2021-01-19
    • 文件大小:64512
    • 提供者:weixin_38683562
  1. 详解python定时简单爬取网页新闻存入数据库并发送邮件

  2. 本人小白一枚,简单记录下学校作业项目,代码十分简单,主要是对各个库的理解,希望能给别的初学者一点启发。 一、项目要求 1、程序可以从北京工业大学首页上爬取新闻内容:http://www.bjut.edu.cn 2、程序可以将爬取下来的数据写入本地MySQL数据库中。 3、程序可以将爬取下来的数据发送到邮箱。 4、程序可以定时执行。 二、项目分析 1、爬虫部分利用requests库爬取html文本,再利用bs4中的BeaultifulSoup库来解析html文本,提取需要的内容。 2、使用pym
  3. 所属分类:其它

    • 发布日期:2021-01-19
    • 文件大小:444416
    • 提供者:weixin_38519387