您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. VC++实现的网页内容抓取下载程序源代码

  2. 该程序使用vc编写,可实现输入网页url得到网页内的内容,方便易用,是学习mfc和urldownloadtofile函数应用的好素材
  3. 所属分类:C++

    • 发布日期:2009-12-10
    • 文件大小:16384
    • 提供者:returnlixin
  1. GetLinks如迅雷获取网页全部链接

  2. 实现类似“网际快车”的“使用网际快车下载全部链接”这个功能。 IE有几个有用的接口,我们可以用他来提取网页所有链接 首先是用IHTMLDocument2的get_links,来获取IHTMLElementCollection接口,再通过IHTMLElementCollection来获取IHTMLAnchorElement,而IHTMLAnchorElement接口的get_href就是我们想要的,通过循环获取,我们就可以得到网页的所有链接了!本软件通过嵌入浏览器实现此功能。
  3. 所属分类:Web开发

    • 发布日期:2010-04-13
    • 文件大小:991232
    • 提供者:zhsgss
  1. GetLinks如迅雷获取网页全2.0(修正1.0初次使用出现不响应问题)

  2. 实现类似“网际快车”的“使用网际快车下载全部链接”这个功能。 IE有几个有用的接口,我们可以用他来提取网页所有链接 首先是用IHTMLDocument2的get_links,来获取IHTMLElementCollection接口,再通过IHTMLElementCollection来获取IHTMLAnchorElement,而IHTMLAnchorElement接口的get_href就是我们想要的,通过循环获取,我们就可以得到网页的所有链接了!本软件通过嵌入浏览器实现此功能。
  3. 所属分类:Web开发

    • 发布日期:2010-04-14
    • 文件大小:992256
    • 提供者:zhsgss
  1. 网页URL注入.doc

  2. 网页URL注入.doc 网页URL注入.doc
  3. 所属分类:Java

    • 发布日期:2010-07-28
    • 文件大小:25600
    • 提供者:sambast
  1. 网页URL分析器(基于tag)

  2. 网页 url 分析器: 暂时不支持 utf—8字符集的网页解析
  3. 所属分类:其它

    • 发布日期:2010-07-30
    • 文件大小:82944
    • 提供者:king_of_eagles
  1. 网页模版小偷

  2. 增加了本地直接双击查看已下载网页的功能 网页模板小偷功能介绍: 1、使用简单易学易用 无需复杂的设置,只要输入目标网页URL,即可下载对应页面以及包含的各种元素,比如图片、JS、CSS 2、下载速度超快 XMLhttp超速下载,通常一个页面几秒钟就能下载完成,您只需要很少的带宽,即可使用它高速下载网页 3、元素分析全面 支持目标网页内所有元素的分析,如果设置为不过滤任何元素,那么将下载所有元素,包括图片,影音等 4、网页模板制作好帮手 看到喜欢的页面,使用软件下载,大部分网页都可直接偷来使用,
  3. 所属分类:Windows Server

    • 发布日期:2011-11-24
    • 文件大小:854016
    • 提供者:dms4770
  1. 网页模板下载软件V1.0

  2. 优势: 1、只要输入目标网页URL,即可下载对应页面以及包含的各种元素(除flash,影音),比如图片、JS、CSS; 2、多线程下载技术,完成模板高速下载; 3、下载并分析网页内所带的图片、JS、CSS文件,软件还能无限极分析CSS文件内嵌套的CSS文件; 4、自动分析并下载CSS文件内的图片文件; 5、按照日常网站开发习惯重新归类存放CSS、JS、图片文件,并自动修改相对路径,下的模板即可马上使用;
  3. 所属分类:C#

    • 发布日期:2012-03-02
    • 文件大小:1048576
    • 提供者:xmutbbs2
  1. 通过URL地址获取网页生成jpg图片

  2. 通过网页url地址生成jpg图片,解决了32、64位运行环境问题
  3. 所属分类:Java

    • 发布日期:2012-07-31
    • 文件大小:6291456
    • 提供者:ce2010
  1. html页面显示指定网页信息样例

  2. html页面显示指定网页信息样例,可以在指定html页面中插入框架,显示任意网站的网页,代码简洁,测试好用!
  3. 所属分类:其它

    • 发布日期:2012-11-13
    • 文件大小:361
    • 提供者:glp_hit
  1. URL编码字符转换器

  2. URL编码字符转换器,很实用的小工具。经常在看网页URL的时候转换
  3. 所属分类:专业指导

    • 发布日期:2008-09-13
    • 文件大小:630784
    • 提供者:oobibigo
  1. php中对链接url的处理

  2. php对当前、前一链接的网页url获取及其对url的处理方法实例
  3. 所属分类:PHP

    • 发布日期:2013-10-03
    • 文件大小:15360
    • 提供者:qingxiao2010
  1. url编码解码器

  2. 自己做的一个小程序,用来解码编码网页url。有兴趣可以看一下。
  3. 所属分类:其它

    • 发布日期:2013-10-22
    • 文件大小:24576
    • 提供者:u012535594
  1. 网页代码相

  2. 1、使用简单易学易用 无需复杂的设置,只要输入目标网页URL,即可下载对应页面以及包含的各种元素,比如图片、JS、CSS
  3. 所属分类:HTML5

    • 发布日期:2014-09-03
    • 文件大小:2097152
    • 提供者:linuxabc1231
  1. 猎户座-网页URL地址采集

  2. 猎户座-网页URL地址采集 是一款采用C++编写的工具(不含源码),用于提取网页的URL地址将地址保存到txt文件中,需要注意的是如果是64位系统将需要设置兼容性32位Windows7执行。
  3. 所属分类:C/C++

    • 发布日期:2018-03-30
    • 文件大小:1048576
    • 提供者:qingfengfuxiu
  1. linux下C++通过网页url获取网页内容的源码,直接用g++终端编译即可

  2. linux下C++通过网页url获取网页内容的源码,直接用g++终端编译即可,童叟无欺,只需要url即可获取到网页内容
  3. 所属分类:C++

    • 发布日期:2020-08-16
    • 文件大小:2048
    • 提供者:weixin_42569526
  1. 关于使用C#爬取网页中的邮箱地址的代码

  2. 该代码使用C#winform,通过输入关键词可以进行搜索获得网页url,而后根据url正则匹配获得网页中的所有url,再在新获得的url中爬取邮箱地址最后将不重复的url以及对应的邮箱地址显示在右侧的listview控件中
  3. 所属分类:互联网

    • 发布日期:2020-10-10
    • 文件大小:268288
    • 提供者:The_Azur
  1. php的urlencode()URL编码函数浅析

  2. URLEncode:是指针对网页url中的中文字符的一种编码转化方式,最常见的就是Baidu、Google等搜索引擎中输入中文查询时候,生成经过Encode过的网页URL。
  3. 所属分类:其它

    • 发布日期:2020-10-28
    • 文件大小:43008
    • 提供者:weixin_38681628
  1. python使用正则表达式提取网页URL的方法

  2. 主要介绍了python使用正则表达式提取网页URL的方法,涉及Python中urllib模块及正则表达式的相关使用技巧,需要的朋友可以参考下
  3. 所属分类:其它

    • 发布日期:2020-10-24
    • 文件大小:27648
    • 提供者:weixin_38586200
  1. 使用Python保存网页上的图片或者保存页面为截图

  2. Python保存网页图片 这个是个比较简单的例子,网页中的图片地址都是使用’http://。。。。.jpg’这种方式直接定义的。 使用前,可以先建立好一个文件夹用于保存图片,本例子中使用的文件夹是 d:\\pythonPath这个文件夹 代码如下: # -*- coding: UTF-8 -*- import os,re,urllib,uuid #首先定义云端的网页,以及本地保存的文件夹地址\nurlPath='http://gamebar.com/'\nlocalPath='d:\\\\p
  3. 所属分类:其它

    • 发布日期:2020-12-24
    • 文件大小:87040
    • 提供者:weixin_38608025
  1. python使用正则表达式提取网页URL的方法

  2. 本文实例讲述了python使用正则表达式提取网页URL的方法。分享给大家供大家参考。具体实现方法如下: import re import urllib url=//www.jb51.net s=urllib.urlopen(url).read() ss=s.replace( ,) urls=re.findall(r,ss,re.I) for i in urls: print i else: print 'this is over' PS:这里再为大家提供2款非常方便的正则表达式工具供大家
  3. 所属分类:其它

    • 发布日期:2021-01-21
    • 文件大小:33792
    • 提供者:weixin_38619967
« 12 3 4 5 6 7 8 9 10 ... 50 »