针对其实url地址进行数据采集,在响应数据中进行数据筛选得到需要进行数据采集的下一波url地址,并将url地址添加到数据采集队列中进行二次爬取,以此类推深度爬虫可以通过不同的方式实现,在urllib2和requesets模块中通过轮询数据筛选得到目标url地址,然后进行循环爬取数据即可,在scrapy中主要通过两种方式进行处理:1.通过Response对象的地址序列和Request对象的请求处理完成深度采集2.通过CrawlSpider类型中的请求链接提取规则自动进行深度数据采集处理1.通过Re