您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. HTTP网址抓取器 v4.6

  2. 你有过这样的经历吗?在网上看到一个好的flash,一首好听的mp3,或是一个好看的在线电影电视,但却不知道如何把它们抓下来。因为现在各大网站都想尽办法限制你的权限,如禁止右键,禁止查看源文件等。而这一切封锁都将被HTTP网址抓取器所突破。它可将你正在访问的网页中的所有资源(图片、flash、mp3、ram、asf等等)的URL抓下来,而无论它们被隐藏得多深。 另外,本软件提供对各种资源URL进行分门别类,并提供方便的界面(以网页为模板)在各资源URL间切换。由于很多资源在你的浏览时就被下载到本
  3. 所属分类:Flash

    • 发布日期:2005-12-29
    • 文件大小:2097152
    • 提供者:chenxh
  1. 网童网页资源抓取工具

  2. 网童(WebPortero)是一款智能化的网页保存工具,让你松保存网页。上网找资料免不了要保存文章、图片,在保存网页的过程中经常会遇到网页保存失败,网页不能拷贝的烦恼,通常是采用"拷贝"、"粘贴"方法,将所需的正文内容复制到WORD或记事本中然后再"保存",这样很慢也很麻烦,而且粘贴到WORD后经常会留下一堆去不掉的格式。
  3. 所属分类:Web开发

  1. 需要抓点的软件界面,按下键盘上的“

  2. 需要抓点的软件界面,按下键盘上的“PrintScreen”键(找不到?仔细找找,就在你的键盘上!),然后进入按键的“抓点”界面,这时候您刚才的抓图就会显示在抓图界面中 第二步:抓点抓色 在抓屏的界面上按下鼠标左键,即可成功抓点/抓色。 抓区域坐标的功能 在“抓图”当中按住鼠标左键并拉动,即可获得拉动的区域坐标,这对于使用“区域找色”这个功能来说非常有帮助,因为获得的区域坐标,就是函数中需要输入的参数。 偏移抓点 在一些游戏里,鼠标的形状会“挡住”真正您想要抓的点的颜色。所以按下热键之后,抓取的
  3. 所属分类:系统安全

    • 发布日期:2011-07-08
    • 文件大小:8192
    • 提供者:lw915197660
  1. C#抓取数据程序源码20130111

  2. C#抓取数据程序源码 源码描述: 源码示例抓取界面http://detail.zol.com.cn/cell_phone_index/subcate57_98_list_1.html 抓取信息:图片,手机名称,价格,网络模式,网络类型,其它信息不要 手机图片要下载下来 相关信息保存到了xml文件里。 此抓取数据程序示例只是针对Get请求数据的情况,而且当前抓取的网站都是不需要登录的。 而在实际生产中肯定有Post请求数据的,也有需要登录的, 源码里面的Common类提供了各种场景需要的方法,有
  3. 所属分类:Web开发

    • 发布日期:2013-04-28
    • 文件大小:351232
    • 提供者:ss_geng
  1. 网站抓取精灵 网站抓取工具

  2. 网站图片抓取精灵[1],在它的帮助下你能够完整下载网站的内容,你下载到本地硬盘中的网站内容将仍保持原本的 HTML 格式,其文件名与目录结构都不会变化,这样可以准确地提供网站的镜像。 1、一键保存页面文字 2、下载页面所有图片 3、保存页面所有css 4、保存页面js文件 5、下载单页所有相关文件 6、保存带参数的css和js文件 7、生成单个页面index.html
  3. 所属分类:网管软件

    • 发布日期:2013-07-20
    • 文件大小:601088
    • 提供者:u011463447
  1. 微信客户端分享网页抓取不到图片解决方案

  2. 此js文件利用微信客户端自带接口进行分享代码重写,解决微信客户端分享网页抓取不到图片的问题
  3. 所属分类:Web开发

    • 发布日期:2014-09-01
    • 文件大小:1024
    • 提供者:jinhezx
  1. 网站抓取精灵V3.0正式版

  2. 网站抓取精灵是一款图片批量下载工具,用于在互联网上快速搜索并批量下载图片、Flash等类型的文件。将指定网页的图片批量下载下来,并且可以分析出网页中的链接网址信息,根据链接,不停得到相关的网页下载图片,把所有相关联的网页图片都批量下载到你的计算机硬盘中。 网站图片抓取精灵[1] ,在它的帮助下你能够完整下载网站的内容,你下载到本地硬盘中的网站内容将仍保持原本的 HTML 格式,其文件名与目录结构都不会变化,这样可以准确地提供网站的镜像。 1、一键保存页面文字 2、下载页面所有图片 3、保存页面
  3. 所属分类:网管软件

    • 发布日期:2015-05-04
    • 文件大小:1048576
    • 提供者:liuyuedexue
  1. 网站抓取精灵V3.0正式版

  2. 网站前端抓取利器,在它的帮助下你能够完整下载网站的内容,你下载到本地硬盘中的网站内容将仍保持原本的 HTML 格式,其文件名与目录结构都不会变化,这样可以准确地提供网站的镜像。 网站抓取精灵特点: 1、一键保存页面文字 2、下载页面所有图片 3、保存页面所有css 4、保存页面js文件 5、下载单页所有相关文件 6、保存带参数的css和js文件 7、生成单个页面index.html
  3. 所属分类:其它

  1. 网络图片批量抓取系统(C#4.0)

  2. 本系统不需要安装,下载后输入系列号即可用。 运行环境:.NET Framwork4.0 本系统经过严格测试,抓取效果很好,像素>=800*600以上的高像素图片在不到1小时内可以抓取1000张,当然网络速度要好。序列号请联系http://zivsoft.taobao.com。
  3. 所属分类:网络基础

    • 发布日期:2009-02-20
    • 文件大小:234496
    • 提供者:java_5211314
  1. WebSpider 网页抓取 v5.1

  2. 网页抓取工具5.1可以抓取互联网、wap网站上的任何网页,包括需要登录后才能访问的页面。对抓取到页面内容进行解析,得到结构化的信息,比如:新闻标题、作者、来源、正文等。支持列表页的自动翻页抓取,支持正文页多页合并,支持图片、文件的抓取,可以抓取静态网页,也可以抓取带参数的动态网页,功能极其强大。 用户指定要抓取的网站、抓取的网页类型(固定页面、分页显示的页面等等),并配置如何解析数据项(如新闻标题、作者、来源、正文等),系统可以根据配置信息自动实时抓取数据,启动抓取的时间也可以通过配置设定,真
  3. 所属分类:网络基础

    • 发布日期:2009-03-03
    • 文件大小:16777216
    • 提供者:zbq1001
  1. spider web抓取网页的蜘蛛

  2. 网页抓取工具5.1可以抓取互联网、wap网站上的任何网页,包括需要登录后才能访问的页面。对抓取到页面内容进行解析,得到结构化的信息,比如:新闻标题、作者、来源、正文等。支持列表页的自动翻页抓取,支持正文页多页合并,支持图片、文件的抓取,可以抓取静态网页,也可以抓取带参数的动态网页,功能极其强大。 用户指定要抓取的网站、抓取的网页类型(固定页面、分页显示的页面等等),并配置如何解析数据项(如新闻标题、作者、来源、正文等),系统可以根据配置信息自动实时抓取数据,启动抓取的时间也可以通过配置设定,真
  3. 所属分类:Web开发

    • 发布日期:2009-03-08
    • 文件大小:16777216
    • 提供者:q1a0
  1. PHP抓取远程图片(含不带后缀的)教程详解

  2. 一、创建项目 作为演示,我们在www根目录创建项目grabimg,创建一个类GrabImage.php和一个index.php。 二、编写类代码 我们定义一个和文件名相同的类:GrabImage class GrabImage{ } 三、属性 接下来定义几个需要使用的属性。       1、首先定义一个需要抓取的图片地址:$img_url       2、再定义一个$file_name用来存储文件的名称,但是不携带拓展名,因为可能涉及到拓展名更换,所以这里拆开定义       3、紧接着
  3. 所属分类:其它

    • 发布日期:2020-12-18
    • 文件大小:81920
    • 提供者:weixin_38680308
  1. 基于php实现七牛抓取远程图片

  2. 由于公司网站之前的用户头像都是存储在自己的服务器上的,后来感觉管理不方便,新增加的用户头像都上传到了七牛,为了方便统一管理,领导说把本地服务器的头像全部迁移到了七牛。 1.梳理下思路 先判断用户的头像是否在七牛,若不存在,本地如果有则抓取到七牛,然后进行批量抓取 2.七牛判断图片是否存在 /** * 查看七牛url是否存在 * param string $url */ function url_exists($url) { require_once(C
  3. 所属分类:其它

    • 发布日期:2020-12-18
    • 文件大小:51200
    • 提供者:weixin_38614462
  1. CodeIgniter实现从网站抓取图片并自动下载到文件夹里的方法

  2. 本文实例讲述了CodeIgniter实现从网站抓取图片并自动下载到文件夹里的方法。分享给大家供大家参考。具体如下: 因为某网站看图比较坑爹,要一页一页的翻页。。。。所以。。。。就写了这么个东西 (我是产品不是程序员)运行速度简直无法忍受,而且经常会有错误发生,所以希望大家帮忙改进(PHP)。 当然也欢迎看到PYTHON,GOLANG的版本~~^_^ 1. controllers: $this->load->helper('date'); $this->load->hel
  3. 所属分类:其它

    • 发布日期:2020-12-18
    • 文件大小:51200
    • 提供者:weixin_38606019
  1. python抓取网站的图片并下载到本地的方法

  2. 实例如下所示: #!/usr/bin/python # -*- coding: UTF-8 -*- import re import urllib,urllib2; #通过url获取网页 def getHtml(url): # 要设置请求头,让服务器知道不是机器人 user_agent = 'Mozilla/4.0 (compatible; MSIE 5.5; Windows NT)' headers = {'User-Agent': user_agent} request=urlli
  3. 所属分类:其它

    • 发布日期:2020-12-24
    • 文件大小:34816
    • 提供者:weixin_38522253
  1. Node.js编写爬虫的基本思路及抓取百度图片的实例分享

  2. 其实写爬虫的思路十分简单: 按照一定的规律发送 HTTP 请求获得页面 HTML 源码(必要时需要加上一定的 HTTP 头信息,比如 cookie 或 referer 之类) 利用正则匹配或第三方模块解析 HTML 代码,提取有效数据 将数据持久化到数据库中 但是真正写起这个爬虫来,我还是遇到了很多的问题(和自己的基础不扎实也有很大的关系,node.js 并没有怎么认真的学过)。主要还是 node.js 的异步和回调知识没有完全掌握,导致在写代码的过程中走了很多弯路。 模块化 模块化
  3. 所属分类:其它

    • 发布日期:2020-12-23
    • 文件大小:90112
    • 提供者:weixin_38570459
  1. Node.js+jade抓取博客所有文章生成静态html文件的实例

  2. 这篇文章,我们就把上文中采集到的所有文章列表的信息整理一下,开始采集文章并且生成静态html文件了.先看下我的采集效果,我的博客目前77篇文章,1分钟不到就全部采集生成完毕了,这里我截了部分的图片,文件名用文章的id生成的,生成的文章,我写了一个简单的静态模板,所有的文章都是根据这个模板生成的. 项目结构: 好了,接下来,我们就来讲解下,这篇文章主要实现的功能: 1,抓取文章,主要抓取文章的标题,内容,超链接,文章id(用于生成静态html文件) 2,根据jade模板生成html文件 一、
  3. 所属分类:其它

    • 发布日期:2021-01-01
    • 文件大小:510976
    • 提供者:weixin_38680664
  1. 分享PHP源码批量抓取远程网页图片并保存到本地的实现方法

  2. 做为一个仿站工作者,当遇到网站有版权时甚至加密的时候,WEBZIP也熄火,怎么扣取网页上的图片和背景图片呢。有时候,可能会想到用火狐,这款浏览器好像一个强大的BUG,文章有版权,屏蔽右键,火狐丝毫也不会被影响。 但是作为一个热爱php的开发者来说,更多的是喜欢自己动手。所以,我就写出了下面的一个源码,php远程抓取图片小程序。可以读取css文件并抓取css代码中的背景图片,下面这段代码也是针对抓取css中图片而编写的。 <?php header(Content-Type: text/h
  3. 所属分类:其它

    • 发布日期:2021-01-21
    • 文件大小:55296
    • 提供者:weixin_38601364
  1. Python3简单爬虫抓取网页图片代码实例

  2. 现在网上有很多python2写的爬虫抓取网页图片的实例,但不适用新手(新手都使用python3环境,不兼容python2), 所以我用Python3的语法写了一个简单抓取网页图片的实例,希望能够帮助到大家,并希望大家批评指正。 import urllib.request import re import os import urllib #根据给定的网址来获取网页详细信息,得到的html就是网页的源代码 def getHtml(url): page = urllib.request.ur
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:39936
    • 提供者:weixin_38506138
  1. PHP通过CURL实现定时任务的图片抓取功能示例

  2. 本文实例讲述了PHP通过CURL实现定时任务的图片抓取功能。分享给大家供大家参考,具体如下: 下文为各位介绍一个PHP定时任务通过CURL图片的抓取例子,希望例子对大家帮助,基本思路就是通过一个URL连接,将所有图片的地址抓取下来,然后循环打开图片,利用文件操作函数下载下来,保存到本地,并且把图片的alt属性也抓取下来,最后将数据保存到自己数据库. 废话不多说,看程序就能明白了,其中,需要用到PHP定时任务和PHP的一个第三方插件simple_html_dom.php 的使用,参考simple_
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:54272
    • 提供者:weixin_38714532
« 12 3 4 5 6 7 8 9 10 ... 13 »