您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. php网页抓取小偷程序

  2. 可以抓取远程网页的内容,并保存到数据库。
  3. 所属分类:PHP

    • 发布日期:2010-04-08
    • 文件大小:7168
    • 提供者:xlbigsea
  1. VC++抓取远程文件(URL网页的源代码)

  2. VC++抓取远程文件(URL网页的源代码) 这是一个通过inet来获取网页内容的程序,远程获取文件内容,实际上是通过URL地址来得到指定地址下某文档的源代码,如截图示,一看便知,不过如果是一些文本类型的文件,也是能获取到的,只不过你需要输入的地址完全正确。
  3. 所属分类:C++

    • 发布日期:2010-09-04
    • 文件大小:19456
    • 提供者:mirage1982
  1. 远程抓取网页到本地数据库

  2. 针对全是一些链接列表的网页,根据规律,结合正则表达式,XMLHTTP技术,Jscr ipt服务端脚本,以及ADO技术,写了一个小程序,把这些内容抓取到了本地数据库。抓取下来,然后就数据库对数据库导数据就比较方便了。
  3. 所属分类:Access

    • 发布日期:2011-12-30
    • 文件大小:39936
    • 提供者:ldxsoft01
  1. httpclient远程网页抓取工具

  2. httpclient远程网页抓取工具,可以继承到web项目工程中,很好哟,还等什么?
  3. 所属分类:Java

    • 发布日期:2012-11-04
    • 文件大小:405504
    • 提供者:wjmtt1000
  1. snoics-reptile 网页爬虫2.0

  2. 1、snoics-reptile是什么? 是用纯Java开发的,用来进行网站镜像抓取的工具,可以使用配制文件中提供的URL入口, 把这个网站所有的能用浏览器通过GET的方式获取到的资源全部抓取到本地,包括网页和各 种类型的文件,如:图片、flash、mp3、zip、rar、exe等文件。可以将整个网站完整地下传至 硬盘内,并能保持原有的网站结构精确不变。只需要把抓取下来的网站放到web服务器 (如:Apache)中,就可以实现完整的网站镜像。 2、现在已经有了其他的类似的软件,为什么还要开发s
  3. 所属分类:Java

    • 发布日期:2006-06-05
    • 文件大小:4194304
    • 提供者:chenxh
  1. java网页数据采集器.doc

  2. 这期我们来学习下如何读取网页源代码,并通过group正则 动态抓取我们需要的网页数据.同时在接下来的几期,我们将继续学习[数据存储]如何将抓取的比赛数据存到数据库(MySql), [数据查询] 怎样查询我们想看的比赛记录,以及[远程操作]通过客户端远程访问和操作服务器来进行数据的采集,存储和查询.
  3. 所属分类:Web开发

    • 发布日期:2013-04-11
    • 文件大小:1048576
    • 提供者:baidwjpwwk
  1. 网站神器-网页抓取精灵

  2. 网站神器-网页抓取精灵
  3. 所属分类:C#

    • 发布日期:2013-04-12
    • 文件大小:231424
    • 提供者:dengjianbin
  1. PHP+Curl远程模拟登录并获取数据

  2. Curl在抓取网页要比file_get_contents()效率就要高些,支持多线程,并且curl提供了丰富的函数,你可以很方便的应用到webservice接口调用。
  3. 所属分类:PHP

    • 发布日期:2016-05-17
    • 文件大小:4096
    • 提供者:xfuyct
  1. CSS图片抓取大师css_down v1.2

  2. css_down[CSS图片抓取大师V1.2版]仿站必备工具,百盛互联网络出品,免费推荐给大家该软件是网页制作者仿站必备工具,功能有: 1.智能提取远程css文件的背景图片。 2.单个预览或者批量下载。  3.下载网页源文件和网页中的图片,js等。  最大特色是支持按照原有目录结构保存系统运行环境为Microsoft .NET Framework 4  环境,需要下载Microsoft .NET Framework 4
  3. 所属分类:其它

    • 发布日期:2019-10-31
    • 文件大小:27648
    • 提供者:weixin_38743506
  1. 分享PHP源码批量抓取远程网页图片并保存到本地的实现方法

  2. 本篇文章给大家分享PHP源码批量抓取远程网页图片并保存到本地的实现方法,对批量抓取网页图片相关知识感兴趣的朋友一起学习吧
  3. 所属分类:其它

    • 发布日期:2020-10-23
    • 文件大小:53248
    • 提供者:weixin_38615783
  1. PHP 抓取网页图片并且另存为的实现代码

  2. URL是远程的完整图片地址,不能为空, $filename 是另存为的图片名字 默认把图片放在以此脚本相同的目录里
  3. 所属分类:其它

    • 发布日期:2020-10-29
    • 文件大小:35840
    • 提供者:weixin_38752830
  1. PHP中使用file_get_contents抓取网页中文乱码问题解决方法

  2. 本文实例讲述了PHP中使用file_get_contents抓取网页中文乱码问题解决方法。分享给大家供大家参考。具体方法如下: file_get_contents函数本来就是一个非常优秀的php自带本地与远程文件操作函数,它可以让我们不花吹挥之力把远程数据直接下载,但我在使用它读取网页时会碰到有些页面是乱码了,这里就来给各位总结具体的解决办法. 根据网上有朋友介绍说原因可能是服务器开了GZIP压缩,下面是用firebug查看我的网站的头信息,Gzip是开了的,请求头信息原始头信息,代码如下: 复
  3. 所属分类:其它

    • 发布日期:2020-12-18
    • 文件大小:49152
    • 提供者:weixin_38557095
  1. PHP 抓取网页图片并且另存为的实现代码

  2. 下面是源代码,及其相关解释 复制代码 代码如下: <?php //URL是远程的完整图片地址,不能为空, $filename 是另存为的图片名字 //默认把图片放在以此脚本相同的目录里 function GrabImage($url, $filename=””){ //$url 为空则返回 false; if($url == “”){return false;} $ext = strrchr($url, “.”);//得到图片的扩展名 if($ext != “.gif” && $ext !
  3. 所属分类:其它

    • 发布日期:2020-12-17
    • 文件大小:46080
    • 提供者:weixin_38607784
  1. 如何解决远程页面抓取中的乱码问题

  2. 由于平时使用的网页文件基本上都是gb2312编码方式,如果通过xmlhttp控件读取的话,肯定会出现乱码问题,但是要把所有文件都改成utf-8编码,操作上比较麻烦。经过反复比较,我找到了相对实用的解决方法。   ff提供了overrideMimeType方法,可以指定返回值的编码,所以解决起来比较简单,只要把这个方法指向gb2312就可以了。对于IE,可以用vbs配合来作编码转换,用gb2utf8来转换接收到的二进制数据,其中利用到execscr ipt方法来调用vbs的函数。 代码如下: [r
  3. 所属分类:其它

    • 发布日期:2020-12-13
    • 文件大小:37888
    • 提供者:weixin_38729221
  1. python抓取网页中图片并保存到本地

  2. 在上篇文章给大家分享PHP源码批量抓取远程网页图片并保存到本地的实现方法,感兴趣的朋友可以点击了解详情。 #-*-coding:utf-8-*- import os import uuid import urllib2 import cookielib '''获取文件后缀名''' def get_file_extension(file): return os.path.splitext(file)[1] '''創建文件目录,并返回该目录''' def mkdir(path): # 去除
  3. 所属分类:其它

    • 发布日期:2020-12-24
    • 文件大小:58368
    • 提供者:weixin_38520437
  1. VC++抓取远程文件(URL网页的源代码)

  2. 内容索引:VC/C++源码,网络相关,远程  这是一个通过inet来获取网页内容的程序,远程获取文件内容,实际上是通过URL地址来得到指定地址下某文档的源代码,如截图示,一看便知,不过如果是一些文本类型的文件,也是能获取到的,只不过你需要输入的地址完全正确。
  3. 所属分类:其它

    • 发布日期:2021-03-15
    • 文件大小:19456
    • 提供者:weixin_38681628
  1. C#实现通过程序自动抓取远程Web网页信息的代码

  2. 通过程序自动的读取其它网站网页显示的信息,类似于爬虫程序。比方说我们有一个系统,要提取BaiDu网站上歌曲搜索排名。分析系统在根据得到的数据进行数据分析。为业务提供参考数据。   为了完成以上的需求,我们就需要模拟浏览器浏览网页,得到页面的数据在进行分析,最后把分析的结构,即整理好的数据写入数据库。那么我们的思路就是:   1、发送HttpRequest请求。   2、接收HttpResponse返回的结果。得到特定页面的html源文件。   3、取出包含数据的那一部分源码。   4、根据htm
  3. 所属分类:其它

    • 发布日期:2021-01-21
    • 文件大小:50176
    • 提供者:weixin_38646706
  1. 分享PHP源码批量抓取远程网页图片并保存到本地的实现方法

  2. 做为一个仿站工作者,当遇到网站有版权时甚至加密的时候,WEBZIP也熄火,怎么扣取网页上的图片和背景图片呢。有时候,可能会想到用火狐,这款浏览器好像一个强大的BUG,文章有版权,屏蔽右键,火狐丝毫也不会被影响。 但是作为一个热爱php的开发者来说,更多的是喜欢自己动手。所以,我就写出了下面的一个源码,php远程抓取图片小程序。可以读取css文件并抓取css代码中的背景图片,下面这段代码也是针对抓取css中图片而编写的。 <?php header(Content-Type: text/h
  3. 所属分类:其它

    • 发布日期:2021-01-21
    • 文件大小:55296
    • 提供者:weixin_38601364
  1. 解决远程页面抓取中的乱码问题?

  2. 由于平时使用的网页文件基本上都是gb2312编码方式,如果通过xmlhttp控件读取的话,肯定会出现乱码问题,但是要把所有文件都改成utf-8编码,操作上比较麻烦。经过反复比较,我找到了相对实用的解决方法。   ff提供了overrideMimeType方法,可以指定返回值的编码,所以解决起来比较简单,只要把这个方法指向gb2312就可以了。对于IE,可以用vbs配合来作编码转换,用gb2utf8来转换接收到的二进制数据,其中利用到execscr ipt方法来调用vbs的函数。 [Ctrl+
  3. 所属分类:其它

    • 发布日期:2021-01-21
    • 文件大小:35840
    • 提供者:weixin_38570854
  1. php使用curl简单抓取远程url的方法

  2. 本文实例讲述了php使用curl抓取远程url的方法。分享给大家供大家参考。具体如下: cURL是一个非常有用的php库,可以用来连接不通类型的服务器和协议,下面是一个最基本的范例用来抓取远程网页 希望本文所述对大家的php程序设计有所帮助。
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:28672
    • 提供者:weixin_38649091
« 12 3 4 »