您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. C#网络蜘蛛源代码(网络搜索引擎)

  2. 网络蜘蛛即Web Spider,是一个很形象的名字。把互联网比喻成一个蜘蛛网,那么Spider就是在网上爬来爬去的蜘蛛。网络蜘蛛是通过网页的链接地址来寻找网页,从 网站某一个页面(通常是首页)开始,读取网页的内容,找到在网页中的其它链接地址,然后通过这些链接地址寻找下一个网页,这样一直循环下去,直到把这个网 站所有的网页都抓取完为止。如果把整个互联网当成一个网站,那么网络蜘蛛就可以用这个原理把互联网上所有的网页都抓取下来。
  3. 所属分类:网络基础

    • 发布日期:2009-06-02
    • 文件大小:1048576
    • 提供者:xiandaixiaotu2
  1. C#网络蜘蛛源程序及搜索引擎技术揭密

  2. 网络 蜘蛛基本原理 网络蜘蛛即Web Spider,是一个很形象的名字。把互联网比喻成一个蜘蛛网,那么Spider就是在网上爬来爬去的蜘蛛。网络蜘蛛是通过网页的链接地址来寻找网页,从 网站某一个页面(通常是首页)开始,读取网页的 内容 ,找到在网页中的其它链接地址,然后通过这些链接地址寻找下一个网页,这样一直循环下去,直到把这个网站所有的网页都抓取完为止。如果把整个互联网当成一 个网站,那么网络蜘蛛就可以用这个原理把互联网上所有的网页都抓取下来。 对于搜索引擎来说,要抓取互联网上所有的网页几乎
  3. 所属分类:网络基础

    • 发布日期:2009-07-28
    • 文件大小:268288
    • 提供者:wang3c
  1. 记录百度GG蜘蛛访问痕迹

  2. 功能:记录蜘蛛爬行轨迹,一个星期内的按爬行时间完全记录,一个星期以前的记录时间(没有删除记录的功能,需要删除的请直接在数据库里面删除即可!). 利用main.asp可以直接一眼看出哪个页面被爬行的最多,利用robots.asp可以查看一个星期内蜘蛛爬行的轨迹.
  3. 所属分类:C#

    • 发布日期:2009-11-25
    • 文件大小:18432
    • 提供者:thisisxgy
  1. 网络蜘蛛基本原理和算法

  2. 网络蜘蛛即Web Spider,通过网页的链接地址来寻找网页,从网站某一个页面(通常是首页)开始,读取网页的内容,找到在网页中的其它链接地址,然后通过这些链接地址寻找下一个网页,这样一直循环下去,直到把这个网 站所有的网页都抓取完为止。如果把整个互联网当成一个网站,那么网络蜘蛛就可以用这个原理把互联网上所有的网页都抓取下来。
  3. 所属分类:网络基础

    • 发布日期:2010-01-14
    • 文件大小:101376
    • 提供者:lxnwjhan
  1. 蜘蛛程序,google抓取,简单

  2. 蜘蛛,google,百度,抓取,搜索,搜索引擎。免费的,方便好用,能快速抓取页面,可以设置抓取内容,包括URL,新闻,多媒体,图片等信息
  3. 所属分类:其它

    • 发布日期:2010-03-27
    • 文件大小:1048576
    • 提供者:cqxuqiang023
  1. Larbin互联网蜘蛛索引系统源代码

  2. 互联网蜘蛛索引系统,类似www.av.com的robot索引工具。可迅速对互联网中的web页面进行索引,生成搜索引擎的数据库。 采用了相当快速的索引算法,在一台普通pc上可即时索引超过100'000'000的页面数量 。
  3. 所属分类:Web开发

    • 发布日期:2010-04-11
    • 文件大小:98304
    • 提供者:wwwcctvcom111
  1. EO 蜘蛛精的原理:2000多个网站目录一起抓取您的网站的内容,或建立带有你网站关键字和

  2. 创建网站后,让搜索引擎蜘蛛经常光临我们的网站,抓取网站的最新内容是站长们的必修课! 如果能有效吸引蜘蛛的注意力,那您的站就会很快被收录且获得较好的排名。 做网站的人都知道,只要网站被收录了就表示搜索引擎蜘蛛来过,蜘蛛爬行的频繁一定程度 会反应到页面收录量和被连接数。如何更好的提升蜘蛛的爬行速度和吸引更多蜘蛛过来爬行呢? 我们的SEO蜘蛛精可以帮您做到。
  3. 所属分类:专业指导

    • 发布日期:2010-04-16
    • 文件大小:2097152
    • 提供者:testtesta
  1. 用C#开发蜘蛛程序 v1.0

  2. 蜘蛛"(Spider)是Internet上一种很有用的程序,搜索引擎利用蜘蛛程序将Web页面收集到数据库,企业利用蜘蛛程序监视竞争对手的网站并跟踪变动,个人用户用蜘蛛程序下载Web页面以便脱机使用,开发者利用蜘蛛程序扫描自己的Web检查无效的链接……对于不同的用户,蜘蛛程序有不同的用途。那么,蜘蛛程序到底是怎样工作的呢? 蜘蛛是一种半自动的程序,就象现实当中的蜘蛛在它的Web(蜘蛛网)上旅行一样,蜘蛛程序也按照类似的方式在Web链接织成的网上旅行。蜘蛛程序之所以是半自动的,是因为它总是需要一个
  3. 所属分类:Web开发

    • 发布日期:2010-04-30
    • 文件大小:28672
    • 提供者:wugxnet
  1. 用c#写的一个简单的蜘蛛程序

  2. "蜘蛛"(Spider)是Internet上一种很有用的程序,搜索引擎利用蜘蛛程序将Web页面收集到数据库,企业利用蜘蛛程序监视竞争对手的网站并跟踪变动,个人用户用蜘蛛程序下载Web页面以便脱机使用,开发者利用蜘蛛程序扫描自己的Web检查无效的链接……对于不同的用户,蜘蛛程序有不同的用途。那么,蜘蛛程序到底是怎样工作的呢?
  3. 所属分类:Web开发

    • 发布日期:2010-05-01
    • 文件大小:9216
    • 提供者:derray
  1. 用C#开发蜘蛛程序 v1.0

  2. 蜘蛛"(Spider)是Internet上一种很有用的程序,搜索引擎利用蜘蛛程序将Web页面收集到数据库,企业利用蜘蛛程序监视竞争对手的网站并跟踪变动,个人用户用蜘蛛程序下载Web页面以便脱机使用,开发者利用蜘蛛程序扫描自己的Web检查无效的链接……对于不同的用户,蜘蛛程序有不同的用途。那么,蜘蛛程序到底是怎样工作的呢? 蜘蛛是一种半自动的程序,就象现实当中的蜘蛛在它的Web(蜘蛛网)上旅行一样,蜘蛛程序也按照类似的方式在Web链接织成的网上旅行。蜘蛛程序之所以是半自动的,是因为它总是需要一个
  3. 所属分类:Web开发

    • 发布日期:2010-05-21
    • 文件大小:28672
    • 提供者:z2003202
  1. 用C#开发蜘蛛程序 v1.0

  2. 蜘蛛"(Spider)是Internet上一种很有用的程序,搜索引擎利用蜘蛛程序将Web页面收集到数据库,企业利用蜘蛛程序监视竞争对手的网站并跟踪变动,个人用户用蜘蛛程序下载Web页面以便脱机使用,开发者利用蜘蛛程序扫描自己的Web检查无效的链接……对于不同的用户,蜘蛛程序有不同的用途。那么,蜘蛛程序到底是怎样工作的呢? 蜘蛛是一种半自动的程序,就象现实当中的蜘蛛在它的Web(蜘蛛网)上旅行一样,蜘蛛程序也按照类似的方式在Web链接织成的网上旅行。蜘蛛程序之所以是半自动的,是因为它总是需要一个
  3. 所属分类:Web开发

    • 发布日期:2010-05-27
    • 文件大小:28672
    • 提供者:yangshanyin
  1. 搜索引擎蜘蛛访问日志查看器(php)

  2. 搜索引擎蜘蛛访问日志查看器V1.0(php版)这个软件可以查看搜索引擎的蜘蛛访问记录,根据这些记录可以看到蜘蛛什么时候来访问过你的站,抓取了什么内容。之前写过asp版的,这个php版是asp的翻版,适合支持php的空间使用。使用方法:----插入php页面调用----插入html页面JS调用bot.mdb 记录数据库访问 zhizhu.php 可以查看蜘蛛访问日志的记录优点:1、程序简洁易用。2、记录所有爬行的页面。3、可以删除数据。4、用数据库记录而不是txt。不足:1、程序小,功能也少。2
  3. 所属分类:PHP

    • 发布日期:2010-05-31
    • 文件大小:37888
    • 提供者:hanbinga17
  1. SEO蜘蛛侠 2010

  2. ◆半免费软件,注册后功能更多!迅速提高您的网站的排名!!! ◆很多朋友都希望能把自己的网站在百度等引擎中有个好排名次,SEO蜘蛛侠可以帮你实现!!! ◆效果可达20分钟收录网站,10天后查询域名增加上万条,提高网站关键字排名与权重。一键登录后,10分钟后可在搜索引擎上输入您的域名,查询到的相关信息迅速增加几百、几千条、几万条。 ◆自助式操作,即时使用SEO蜘蛛侠提交,20分钟立杆见影。 ◆产生几千个独一无二(包含关键字的链接)的页面。 ◆吸引全球10万多个引擎蜘蛛来主动抓取您的页面。 ◆核爆炸
  3. 所属分类:专业指导

    • 发布日期:2010-08-04
    • 文件大小:334848
    • 提供者:wangxuanyou
  1. SEO蜘蛛精 V1.0

  2. 【基本介绍】 SEO蜘蛛精最终的目的不仅仅是如何吸引更多蜘蛛,并且提高蜘蛛的爬行频率,从而使更多的是通过蜘蛛的爬行和收录对您的网站在搜索引擎的更新来提升顾客的回头率,提高顾客的“爬行”速度! 【软件特点】 1.自助式操作,即时使用SEO蜘蛛精提交,20分钟立竿见影. 2.产生几多个高质量的关键字外链接. 3.产生几多个独一无二(包含关键字的链接)的页面. 4.吸引全球10万多个引擎蜘蛛来主动抓取您的页面. 5.体验版本:产生50个高质量的外链,产生50个包含你网站关键字的链接的新页面.
  3. 所属分类:专业指导

    • 发布日期:2010-08-20
    • 文件大小:2097152
    • 提供者:sbwaa258258
  1. SEO蜘蛛侠 SEO外链工具

  2. 效果可达20分钟收录网站,10天后查询域名增加上万条,提高网站关键字排名与权重。一键登录后,10分钟后可在搜索引擎上输入您的域名,查询到的相关信息迅速增加几百、几千条、几万条。 自助式操作,即时使用SEO蜘蛛侠提交,20分钟立杆见影。 产生几千个高质量的关键字外链接 产生几千个独一无二(包含关键字的链接)的页面。 吸引全球10万多个引擎蜘蛛来主动抓取您的页面。 核爆炸式增加订单数量
  3. 所属分类:专业指导

    • 发布日期:2010-08-22
    • 文件大小:333824
    • 提供者:a75648897
  1. 搜索引擎中网络蜘蛛的设计与实现

  2. :文章从搜索引擎的应用出发,探讨了网络蜘蛛在搜索引擎中的作用和地位,提出了网络蜘蛛的功能和设计要求。 在对网络蜘蛛系统结构和工作原理所作分析的基础上,研究了线程调度、页面爬取、解析等策略和算法,并使用Java 实现了一个网络蜘蛛的程序,对其运行结果做了分析。
  3. 所属分类:网络基础

    • 发布日期:2010-08-24
    • 文件大小:234496
    • 提供者:qachenzude
  1. 网站蜘蛛查看器php版本

  2. 这个软件可以查看搜索引擎的蜘蛛访问记录,根据这些记录可以看到蜘蛛什么时候来访问过你的站,抓取了什么内容。 之前写过asp版的,这个php版是asp的翻版,适合支持php的空间使用。 使用方法: ----插入php页面调用 ----插入html页面JS调用 bot.mdb 记录数据库 访问 zhizhu.php 可以查看蜘蛛访问日志的记录 优点: 1、程序简洁易用。 2、记录所有爬行的页面。 3、可以删除数据。 4、用数据库记录而不是txt。
  3. 所属分类:PHP

    • 发布日期:2010-09-10
    • 文件大小:37888
    • 提供者:a12611200
  1. 记录百度GG蜘蛛访问你的网站的痕迹

  2. 功能:记录蜘蛛爬行轨迹,一个星期内的按爬行时间完全记录,一个星期以前的记录时间(没有删除记录的功能,需要删除的请直接在数据库里面删除即可!). 利用main.asp可以直接一眼看出哪个页面被爬行的最多,利用robots.asp可以查看一个星期内蜘蛛爬行的轨迹. 用法:将上面的这段代码插入到网站ASP页面中即可!本蜘蛛爬行分析器总共只有四个文件,很小巧,哈哈!
  3. 所属分类:C#

    • 发布日期:2010-12-03
    • 文件大小:22528
    • 提供者:moshyo
  1. 搜索引擎蜘蛛访问日志查看器php版本

  2. 优点: 1、程序简洁易用。 2、记录所有爬行的页面。 3、可以删除数据。 4、用数据库记录而不是txt。 不足: 1、程序小,功能也少。 2、不能记录返回值,如200 404等。 3、适合小型的网站程序,或者流量不是太大的站。 4、因为是测试版本功能不多,以后会有更新,现在够用就好。 软件作者: simple qq:306903271
  3. 所属分类:PHP

    • 发布日期:2010-12-19
    • 文件大小:87040
    • 提供者:zh7509502
  1. 页面蜘蛛.rar

  2. 本代码是一个分析远程web 页面源码中的内容代码。实现两个基本功能,第一是根据URL取得远程端的页面。第二是对取得的页面加以分析。以实现的功能是可以取得远程端页面的title,keywords,descr iption,img,a,scr ipt等,可以自己扩展想要的呵。页面分析是根椐国外牛人开发的一个类进行扩展。如有BUG欢迎留言。指出谢谢。
  3. 所属分类:C#

    • 发布日期:2011-12-05
    • 文件大小:16384
    • 提供者:czp1219
« 12 3 4 5 6 7 8 9 10 ... 24 »