您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. 快速建站首选—NiceWordsv5.0

  2. 利用爬虫技术(蜘蛛机器人,spider)和分词技术,结合白帽SEO,利用URL重写技术、缓存技术,使用PHP语言开发的一套能根据设置的关键词自动抓取互联网上的相关信息、自动更新的WEB智能建站系统。利用NiceWords智能建站系统,只需要在配置页面上设置几个关键词,NiceWords就能全自动的生成一套能自动更新的网站了。
  3. 所属分类:Web开发

    • 发布日期:2010-06-08
    • 文件大小:5242880
    • 提供者:abenmao2009
  1. NiceWords 2.0

  2. Nicewords是由工作在顶级门户网站的几名资深高级工程师利用爬虫技术(蜘蛛机器人,spider)和分词技术,结合白帽SEO(规避了一切风险的搜索引擎优化),利用URL重写技术、缓存技术,使用PHP语言开发的一套能根据设置的关键词自动抓取互联网上的相关信息、自动更新的WEB智能建站系统。利用NiceWords智能建站系统,只需要在配置页面上设置几个关键词,NiceWords就能全自动的生成一套能自动更新的网站了。 您要做的仅仅是设置几个关键词,其他的一切交给NiceWords来完成! 简单的
  3. 所属分类:系统集成

    • 发布日期:2011-03-11
    • 文件大小:793600
    • 提供者:gp3618
  1. maiyigo3.14最新中文商业版.rar

  2. maiyigo v3.14 中文正式版 修正了原版本,后台无法添加关键词。 新增自动升级功能 新增自定义URl重写 新增Rss聚合 新增智能定向采集 真正可用的原装maiyigo的dezend版 安装在根目录下,不需要修改任何文件,直接安装使用即可。 请注意查看官方做的安装说明readme.txt 如果需要安装到子目录下,比如www.94384.com/maiyigo/ 那就需要修改application\config\constants.php里面 $temp_url .= "/cn/";这
  3. 所属分类:MySQL

    • 发布日期:2011-03-14
    • 文件大小:1048576
    • 提供者:y6z8com
  1. nicewords_v3.072_智能建站系统

  2. nicewords 修正了原版本,后台无法添加关键词。 新增自动升级功能 新增自定义URl重写 新增Rss聚合 新增智能定向采集 真正可用的原装nicewords的dezend版 安装在根目录下,不需要修改任何文件,直接安装使用即可。 请注意查看官方做的安装说明readme.txt 如果需要安装到子目录下,比如www.94384.com/nicewords/ 那就需要修改application\config\constants.php里面 $temp_url .= "/cn/";这一行,在/c
  3. 所属分类:其它

    • 发布日期:2011-03-18
    • 文件大小:1048576
    • 提供者:y6z8com
  1. NiceWords V6.0

  2. 购买的商业版,发来赚积分的,仅供交流学习使用,请勿恶意转卖。 —————— Nicewords是由工作在顶级门户网站的几名资深高级工程师利用爬虫技术(蜘蛛机器人,spider)和分词技术,结合白帽SEO,利用URL重写技术、缓存技术,使用PHP语言开发的一套能根据设置的关键词自动抓取互联网上的相关信息、自动更新的WEB智能建站系统。利用NiceWords智能建站系统,只需要在配置页面上设置几个关键词,NiceWords就能全自动的生成一套能自动更新的网站了。 NiceWords最主要是解决了自
  3. 所属分类:PHP

    • 发布日期:2011-03-23
    • 文件大小:5242880
    • 提供者:Aiving
  1. 网络爬虫一种搜索引擎

  2. 网络爬虫 百科名片 网络爬虫 网络爬虫(又被称为网页蜘蛛,网络机器人,在FOAF社区中间,更经常的称为网页追逐者),是一种按照一定的规则,自动的抓取万维网信息的程序或者脚本。另外一些不常使用的名字还有蚂蚁,自动索引,模拟程序或者蠕虫。 目录 概述 爬虫技术研究综述 网页搜索策略 网页分析算法 补充 展开 编辑本段概述   引言   随着网络的迅速发展,万维网成为大量信息的载体,如何有效地提取并利用这些信息成为一个巨大的挑战。搜索引擎(Search Engine),例如传统的通用搜索引擎Alta
  3. 所属分类:C++

    • 发布日期:2011-06-30
    • 文件大小:1048576
    • 提供者:yulinyizhu
  1. 抓取页面URL

  2. 蜘蛛爬虫,递归抓取页面的URL
  3. 所属分类:C#

    • 发布日期:2011-11-08
    • 文件大小:24576
    • 提供者:chaichangaini
  1. 无限智能建站的全自动SEO站

  2. 此程序操作非常智能,只需后台设置几个最热门的关键词,每天采集的文章数量,再也无需人员管理, 一个域名建立一个站,100个域名建立一百个站, 百度谷歌收录都几千,PR从1升到2,访问量倍增, 达到500IP/天,假如开20个站,价值就更大了, ·智能全自动建站系统:你要做的仅仅是设置几个关键词 ·全自动更新:自动寻找信息,随时自动更新 ·在线的WEB系统:无须安装软件,买个空间就能用 ·非作弊:我们不要关键词堆砌,不要作弊,我们是正规站! ·会上网就会使用:无需懂任何网站建设知识 ·自动赚钱的机
  3. 所属分类:PHP

    • 发布日期:2012-03-09
    • 文件大小:2097152
    • 提供者:liruiliang
  1. 精华志 蜘蛛爬虫,递归抓取页面的URL 抓取页面URL

  2. 精华志 蜘蛛爬虫,递归抓取页面的URL 抓取页面URL 京华志&精华志出品 分享资源 C# ASP.NET SQL DBA 源码
  3. 所属分类:.Net

    • 发布日期:2012-04-01
    • 文件大小:1048576
    • 提供者:jinghuazhi
  1. 无限智能建站的MAIYIGO全自动SEO整站源码

  2. MAIYIGO(无限智能建站)的全自动SEO站 此程序操作非常智能,只需后台设置几个最热门的关键词,每天采集的文章数量,再也无需人员管理, 一个域名建立一个站,100个域名建立一百个站, 百度谷歌收录都几千,PR从1升到2,访问量倍增, 达到500IP/天,假如开20个站,价值就更大了, ·智能全自动建站系统:你要做的仅仅是设置几个关键词 ·全自动更新:MAIYIGO自动寻找信息,随时自动更新 ·在线的WEB系统:无须安装软件,买个空间就能用 ·非作弊:我们不要关键词堆砌,不要作弊,我们是正规
  3. 所属分类:PHP

    • 发布日期:2012-04-02
    • 文件大小:2097152
    • 提供者:zhangzejin3883
  1. 智能建站全自动SEO站源码

  2. 此程序操作非常智能,只需后台设置几个最热门的关键词,每天采集的文章数量,再也无需人员管理, 一个域名建立一个站,100个域名建立一百个站, 百度谷歌收录都几千,PR从1升到2,访问量倍增, 达到500IP/天,假如开20个站,价值就更大了, ·智能全自动建站系统:你要做的仅仅是设置几个关键词 ·全自动更新:MAIYIGO自动寻找信息,随时自动更新 ·在线的WEB系统:无须安装软件,买个空间就能用 ·非作弊:我们不要关键词堆砌,不要作弊,我们是正规站! ·会上网就会使用:无需懂任何网站建设知识
  3. 所属分类:Web开发

    • 发布日期:2012-04-12
    • 文件大小:1048576
    • 提供者:mawuxiu
  1. 网络爬虫的设计和实现

  2. 首先,简单介绍下网络爬虫   网络爬虫是通过网页的链接地址来寻找网页,从网站某一个页面(设置为主页)开始,读取网页的内容,找到网页中的其它链接地址,然后通过这些链接地址寻找下一个网页,这样一直循环下去,直到这个网站所有的网页都抓取完为止。实际上,由于抓取技术的限制以及存储技术、处理技术的限制,要完全抓取网站的所有网页是不可能的,也是不实际的!本着从用户需要为出发点,实际需要抓取的网页往往是有限的,只需抓取符合用户要求的网页即可! 抓取网页的策略 在抓取网页的时候,网络爬虫一般有两种策略(即两种
  3. 所属分类:C#

    • 发布日期:2012-11-17
    • 文件大小:31744
    • 提供者:yehui623
  1. 商剑网络信息万能采集器(商剑采集-完全免费!!!)

  2. 软件名称: 商剑网络信息万能采集器 软件版本:3.2 应用平台:Win9x/Me/NT/2000/XP/2003 官方网址:http://www.100spider.cn/ 下载网址1:http://www.100spider.cn/F-spider.rar 软件界面图:http://www.100spider.cn/p/1.jpg 软件简介: 商剑,能把整个百度的图片都采集下来! 商剑,能把淘宝网全部商品信息都采集下来! 商剑,能把聪慧网全部企业信息都采集下来! 商剑信息采集软件,是一款可以
  3. 所属分类:网络基础

    • 发布日期:2008-09-28
    • 文件大小:3145728
    • 提供者:spider100
  1. 网络蜘蛛网络爬虫(搜素引擎)

  2. 网络爬虫是一个自动提取网页的程序,它为搜索引擎从万维网上下载网页,是搜索引擎的重要组成。传统爬虫从一个或若干初始网页的URL开始,获得初始网页上的URL,在抓取网页的过程中,不断从当前页面上抽取新的URL放入队列,直到满足系统的一定停止条件。
  3. 所属分类:网络基础

    • 发布日期:2009-03-06
    • 文件大小:53248
    • 提供者:fengbin041990
  1. 零基础写python爬虫之爬虫的定义及URL构成

  2. 一、网络爬虫的定义 网络爬虫,即Web Spider,是一个很形象的名字。 把互联网比喻成一个蜘蛛网,那么Spider就是在网上爬来爬去的蜘蛛。 网络蜘蛛是通过网页的链接地址来寻找网页的。 从网站某一个页面(通常是首页)开始,读取网页的内容,找到在网页中的其它链接地址, 然后通过这些链接地址寻找下一个网页,这样一直循环下去,直到把这个网站所有的网页都抓取完为止。 如果把整个互联网当成一个网站,那么网络蜘蛛就可以用这个原理把互联网上所有的网页都抓取下来。 这样看来,网络爬虫就是一个爬行程序,一个
  3. 所属分类:其它

    • 发布日期:2020-12-23
    • 文件大小:79872
    • 提供者:weixin_38680247
  1. python爬虫的工作原理

  2. 1.爬虫的工作原理 网络爬虫,即Web Spider,是一个很形象的名字。把互联网比喻成一个蜘蛛网,那么Spider就是在网上爬来爬去的蜘蛛。网络蜘蛛是通过网页的链接地址来寻找网页的。从网站某一个页面(通常是首页)开始,读取网页的内容,找到在网页中的其它链接地址,然后通过这些链接地址寻找下一个网页,这样一直循环下去,直到把这个网站所有的网页都抓取完为止。如果把整个互联网当成一个网站,那么网络蜘蛛就可以用这个原理把互联网上所有的网页都抓取下来。这样看来,网络爬虫就是一个爬行程序,一个抓取网页的程序
  3. 所属分类:其它

    • 发布日期:2021-01-21
    • 文件大小:74752
    • 提供者:weixin_38660579