您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. 2.爬虫基础——了解url网址

  2. 1.什么是URL? url即统一资源定位符,用于定位网络上的资源,每一个心愿在网络上都有唯一的地址。 URL的格式为 2.URL的组成 scheme :访问因特网的协议,常见的协议有 http(超文本传输协议,接受和发布html页面)、 https(加密版的http)、 ftp(文件传输协议)、 file(本地文件传输协议) host :主机名、域名,如:www.baidu.com port :定义主机上的端口号,(http为80,https为443) path :定义服务器上的路径,(如果省
  3. 所属分类:其它

    • 发布日期:2021-01-07
    • 文件大小:61440
    • 提供者:weixin_38610717
  1. tiebaCrawler:贴吧爬虫(零基础小白半天写的贴吧爬虫)-源码

  2. 贴吧爬虫 背景:零基础小白放假在家闲的没事,想爬取南京信息职业技术学院贴吧用户关注的贴吧因此写来的项目 实现的时间大概是大半天,有部分网页基础,没有系统的学过python!平时了解了一丢丢基本的语法 不足:贴吧有防爬虫机制(应该是发现ip大量的刷新页面需要验证),因为是小白入门所以没有解决这个问题 我当时用无线网来爬取信息的,无法使用的时候换了手机的热点(相当于换了ip地址) 实现的思路大致如下: 1.保存南京信息职业技术学院吧的网址,获得(0,n)页帖子的url(tiezi.py
  3. 所属分类:其它

    • 发布日期:2021-02-16
    • 文件大小:10240
    • 提供者:weixin_42131790