您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. 搜索引擎原理之网络爬虫

  2. 随着互联网和宽带上网的普及,搜索引擎在中国异军突起,网络爬虫了,可以从互联网上搜取各式各样的信息,组成搜索引擎的资料库,以便用户查询。
  3. 所属分类:网络基础

    • 发布日期:2010-09-16
    • 文件大小:92160
    • 提供者:yerida
  1. 仿世纪佳缘婚介交友系统5.3 ASP+SQL

  2. 仿世纪佳缘婚介交友系统5.3 ASP+SQL Nslove5使用手册 一、运行环境: 1、服务器要求:windows2000及更高系统版本,IIS5+以上! 2、组件要求:Jmail邮件组件、aspjpeg水印组件、上传组件(aspupload组件)、FSO读写权限(IIS_IUSRS,IUSR帐号读写)、ADODB.Stream组件。一般的虚拟主机都有这些组件,如果是本地调试必须先检查一下IIS的设置环境,并安装上面前三个组件,组件下载地址见本文附录。 3、数据库:SQL2000+以上!初始
  3. 所属分类:Web开发

    • 发布日期:2011-02-26
    • 文件大小:7340032
    • 提供者:lkx0000
  1. maiyigo3.14最新中文商业版.rar

  2. maiyigo v3.14 中文正式版 修正了原版本,后台无法添加关键词。 新增自动升级功能 新增自定义URl重写 新增Rss聚合 新增智能定向采集 真正可用的原装maiyigo的dezend版 安装在根目录下,不需要修改任何文件,直接安装使用即可。 请注意查看官方做的安装说明readme.txt 如果需要安装到子目录下,比如www.94384.com/maiyigo/ 那就需要修改application\config\constants.php里面 $temp_url .= "/cn/";这
  3. 所属分类:MySQL

    • 发布日期:2011-03-14
    • 文件大小:1048576
    • 提供者:y6z8com
  1. nicewords_v3.072_智能建站系统

  2. nicewords 修正了原版本,后台无法添加关键词。 新增自动升级功能 新增自定义URl重写 新增Rss聚合 新增智能定向采集 真正可用的原装nicewords的dezend版 安装在根目录下,不需要修改任何文件,直接安装使用即可。 请注意查看官方做的安装说明readme.txt 如果需要安装到子目录下,比如www.94384.com/nicewords/ 那就需要修改application\config\constants.php里面 $temp_url .= "/cn/";这一行,在/c
  3. 所属分类:其它

    • 发布日期:2011-03-18
    • 文件大小:1048576
    • 提供者:y6z8com
  1. C#信息采集工具实现

  2. 简单C#信息采集工具实现 http://blog.csdn.net/xiaoxiao108/archive/2011/06/01/6458367.aspx 最近想整只爬虫玩玩,顺便熟悉下正则表达式。 开发环境 vs2008 sql2000 实现方法如下 1.先抓取网页代码 2.通过正则匹配出你需要的内容 比如http://www.soso.com/q?w=%C4%E3%BA%C3&pg=1 页面中 搜索结果的标题跟连接地址。具体可以根据你的需要填写合适的地址跟正则。 3.把匹配出的内容保存到数
  3. 所属分类:C#

    • 发布日期:2011-06-01
    • 文件大小:340992
    • 提供者:xiaoxiao108
  1. 搜索引擎代码

  2. E桶金行业搜索引擎系统(包含多线程客户端蜘蛛系统) V1.6 版发布! E桶金行业搜索引擎 特别适用于超大、中型信息门户、行业门户、电子商务等网站使用。 它是一款真正意义上的搜索引擎:具有自己的蜘蛛、分词、索引、搜索等全套功能。 而且所有功能全部基于web页面完成,您只需要购买一款支持asp.net的虚拟主机就能完成本程序的部署,网站轻松上线。 本程序具有毫秒级高速搜索, 搜索结果相关度排序 。多关键词搜索、超长词条搜索、关键词高亮显示。 该程序为ASP.NET2.0版本程序,只要空间支持as
  3. 所属分类:C#

    • 发布日期:2011-09-19
    • 文件大小:8388608
    • 提供者:ntk2006
  1. 无限智能建站的全自动SEO站

  2. 此程序操作非常智能,只需后台设置几个最热门的关键词,每天采集的文章数量,再也无需人员管理, 一个域名建立一个站,100个域名建立一百个站, 百度谷歌收录都几千,PR从1升到2,访问量倍增, 达到500IP/天,假如开20个站,价值就更大了, ·智能全自动建站系统:你要做的仅仅是设置几个关键词 ·全自动更新:自动寻找信息,随时自动更新 ·在线的WEB系统:无须安装软件,买个空间就能用 ·非作弊:我们不要关键词堆砌,不要作弊,我们是正规站! ·会上网就会使用:无需懂任何网站建设知识 ·自动赚钱的机
  3. 所属分类:PHP

    • 发布日期:2012-03-09
    • 文件大小:2097152
    • 提供者:liruiliang
  1. 无限智能建站的MAIYIGO全自动SEO整站源码

  2. MAIYIGO(无限智能建站)的全自动SEO站 此程序操作非常智能,只需后台设置几个最热门的关键词,每天采集的文章数量,再也无需人员管理, 一个域名建立一个站,100个域名建立一百个站, 百度谷歌收录都几千,PR从1升到2,访问量倍增, 达到500IP/天,假如开20个站,价值就更大了, ·智能全自动建站系统:你要做的仅仅是设置几个关键词 ·全自动更新:MAIYIGO自动寻找信息,随时自动更新 ·在线的WEB系统:无须安装软件,买个空间就能用 ·非作弊:我们不要关键词堆砌,不要作弊,我们是正规
  3. 所属分类:PHP

    • 发布日期:2012-04-02
    • 文件大小:2097152
    • 提供者:zhangzejin3883
  1. 智能建站全自动SEO站源码

  2. 此程序操作非常智能,只需后台设置几个最热门的关键词,每天采集的文章数量,再也无需人员管理, 一个域名建立一个站,100个域名建立一百个站, 百度谷歌收录都几千,PR从1升到2,访问量倍增, 达到500IP/天,假如开20个站,价值就更大了, ·智能全自动建站系统:你要做的仅仅是设置几个关键词 ·全自动更新:MAIYIGO自动寻找信息,随时自动更新 ·在线的WEB系统:无须安装软件,买个空间就能用 ·非作弊:我们不要关键词堆砌,不要作弊,我们是正规站! ·会上网就会使用:无需懂任何网站建设知识
  3. 所属分类:Web开发

    • 发布日期:2012-04-12
    • 文件大小:1048576
    • 提供者:mawuxiu
  1. 仿百度搜索引擎软件

  2. 仿百度搜索引擎软件蜘蛛组件包括三大功能模块:链接采集、网页分析、无效网页扫描; 自动识别GB2312、BIG5、UTF-8、Unicode等网页编码; 文件类型证察防止非文本类型文件采集; 蜘蛛可以采集ASP、PHP、JSP等动态数据网页和HTML、SHTML、XHTML等静态网页; 支持续采功能,如果因系统、网络等故障问题终止采集,系统将在下次启动采集时提示您是否“继续采集”或“结束任务”; 采集任务管理功能可以设置多个采集任务安排计划工作,每一个采集任务将会顺次运行; 本程序完全高仿百度,
  3. 所属分类:PHP

    • 发布日期:2012-12-27
    • 文件大小:2097152
    • 提供者:jhdj57
  1. 方维购物分享系统免费开源系统下载

  2. 购物分享系统1.33新添加功能如下: 1.达人申请 2.搭配秀 3.晒货 4.会员勋章 5.敏感词过滤 6.会员整合 7.性能优化 8.广告位 9.商品重复检测 10.分享发布频率限制 购物分享系统2.0新添加功能如下: 1.杂志社 2.@我 3.话题 4.会员积分 5.积分兑换 6.接口登陆修改 7.二手闲置 8.好店 9.添加拍拍商品接口 10.会员邀请 11.会员通知 12.用户信息弹出框 13.及页面细节的修改 购物分享系统2.1新添加功能如下: 1.图片服务器 2.前台管理 3.增加
  3. 所属分类:PHP

    • 发布日期:2013-03-29
    • 文件大小:14680064
    • 提供者:chenlongphp
  1. 淘宝客程序仿蘑菇街美丽说源码方维分享3.o自带的最新采集功能

  2. 分享3.0功能更新 1. 可定制前台主要页面(逛街、搭配、晒货、杂志社、小组、达人、好店) TITLE、META 关键字和 META搜索引擎能够抓取网站的搜索引擎能够抓取网站的描述;(SEO) 2. 可定制前台主要页面(逛街、搭配、晒货、杂志社、小组、达人、好店) URL重写规则(暂定);(SEO) 3. 前台统一单个商品或图片的分享链接(一个分享包含多个商品或图片的仍采用原来的方式);(SEO) 4. 淘宝、拍拍可设置多个appkey 程序循环使用。避免超出调用配额限制;(已取消,淘宝下半年
  3. 所属分类:PHP

    • 发布日期:2013-11-12
    • 文件大小:17825792
    • 提供者:win161126
  1. 千寻元搜索系统V2.0

  2.   “千寻元搜索系统”原名“MST自动化元搜索系统”,是一款多引擎多线程自动化信息搜索及网页数据抓取处理系统,软件整合了国内绝大部分搜索引擎,您可以方便的直接调用任意一个或多个搜索引擎进行信息搜索。本软件可以比常规的搜索引擎网站更精确、更方便、更具体地进行各种信息搜索,并可对搜索结果进行多元化的各种操作,使您能够从海量的搜索结果中更精确的找到需要的信息。    千主要功能有:1、多关键词多引擎自动化批量搜索采集信息。2、批量检测扫描网页内容包含的关键词。3、手机、QQ、邮箱联系方式自动抓取。4
  3. 所属分类:互联网

    • 发布日期:2014-03-27
    • 文件大小:11534336
    • 提供者:shiyu523
  1. 21行业网 v7.4 PHP MYSQL.rar

  2. 仿百度搜索引擎,仿谷歌搜索引擎软件蜘蛛组件包括三大功能模块:链接采集、网页分析、无效网页扫描;自动识别GB2312、BIG5、UTF-8、Unicode等网页编码;文件类型证察防止非文本类型文件采集;蜘蛛可以采集ASP、PHP、JSP等动态数据网页和HTML、SHTML、XHTML等静态网页;本程序完全高仿百度,谷歌,有自主开发的蜘蛛智能抓取网页功能,非网络上仅仅只是界面模仿的免费程序!程序包含24大功能!1.网页搜索2.搜索风云榜3.网址导航4.竞价排名5.蜘蛛智能抓取网页6.网站qp值智能
  3. 所属分类:其它

    • 发布日期:2019-07-10
    • 文件大小:15728640
    • 提供者:weixin_39840387
  1. python模拟爬虫抓取网页内容 采集网页.rar

  2. python爬虫模拟抓取网页内容,采集网页的内容,这里主要是模拟抓取新浪微博中的内容,里面包括了[源码] 爬取客户端微博信息、[源码] 爬取移动端个人信息 关注id和粉丝id (速度慢)、[源码] 爬取移动端微博信息 (强推)等多个例子,关于运行本例子的几点说明:   1.先安装Python环境,作者是Python 2.7.8   2.再安装PIP或者easy_install   3.通过命令pip install selenium安装selenium,它是自动测试、爬虫的工具   4.然后修
  3. 所属分类:其它

    • 发布日期:2019-07-10
    • 文件大小:114688
    • 提供者:weixin_39840924
  1. web基础蜘蛛网页文章采集器 v3.2.zip

  2. web基础蜘蛛网页文章采集器,英文名称Fast_Spider,属于蜘蛛爬虫类程序,用于从指定网站采集海量精华文章,将直接丢弃其中的垃圾网页信息,仅保存具备阅读价值和浏览价值的精华文章,自动执行HTM-TXT转换。本软件为绿色软件解压即可使用。 web基础蜘蛛网页文章采集器特点如下: (1)本软件采用北大天网MD5指纹排重算法,对于相似相同的网页信息,不再重复保存。 (2)采集信息含义:[[HT]]表示网页标题,[[HA]]表示文章标题,[[HC]]表示10个权重关键字,[[UR]]表示网页
  3. 所属分类:其它

    • 发布日期:2019-07-15
    • 文件大小:5242880
    • 提供者:weixin_39841848
  1. 搜查找搜索引擎 v3.1.1

  2. 新增地图搜索和视频搜索!修复风云榜,竞价排名bug!搜查找3.1.1功能:搜查找搜索引擎软件蜘蛛组件包括三大功能模块:链接采集、网页分析、无效网页扫描; 自动识别GB2312、BIG5、UTF-8、Unicode等网页编码; 文件类型证察防止非文本类型文件采集; 蜘蛛可以采集ASP、PHP、JSP等动态数据网页和HTML、SHTML、XHTML等静态网页; 支持续采功能,如果因系统、网络等故障问题终止采集,系统将在下次启动采集时提示您是否“继续采集”或“结束任务”; 采集任务管理功能可以设置多
  3. 所属分类:其它

    • 发布日期:2019-10-24
    • 文件大小:13631488
    • 提供者:weixin_38743737
  1. 21行业网 v6.1 开源版_仿百度搜索引擎(带蜘蛛程序).rar

  2. 仿百度搜索引擎,仿谷歌搜索引擎软件蜘蛛组件包括三大功能模块:链接采集、网页分析、无效网页扫描; 自动识别GB2312、BIG5、UTF-8、Unicode等网页编码; 文件类型证察防止非文本类型文件采集; 蜘蛛可以采集ASP、PHP、JSP等动态数据网页和HTML、SHTML、XHTML等静态网页; 支持续采功能,如果因系统、网络等故障问题终止采集,系统将在下次启动采集时提示您是否“继续采集”或“结束任务”; 采集任务管理功能可以设置多个采集任务安排计划工作,每一个采集任务将会
  3. 所属分类:其它

    • 发布日期:2019-07-07
    • 文件大小:6291456
    • 提供者:weixin_39841848
  1. 浅谈Python爬虫原理与数据抓取

  2. 通用爬虫和聚焦爬虫 根据使用场景,网络爬虫可分为通用爬虫和聚焦爬虫两种. 通用爬虫 通用网络爬虫 是 捜索引擎抓取系统(Baidu、Google、Yahoo等)的重要组成部分。主要目的是将互联网上的网页下载到本地,形成一个互联网内容的镜像备份。 通用搜索引擎(Search Engine)工作原理 通用网络爬虫从互联网中搜集网页,采集信息,这些网页信息用于为搜索引擎建立索引从而提供支持,它决定着整个引擎系统的内容是否丰富,信息是否即时,因此其性能的优劣直接影响着搜索引擎的效果。 第一步:抓取网页
  3. 所属分类:其它

    • 发布日期:2020-12-17
    • 文件大小:560128
    • 提供者:weixin_38607088
  1. 蜘蛛演示:网络爬虫-源码

  2. 蜘蛛演示 网络爬虫 概念: 网络爬虫(又称为网页蜘蛛,网络机器人,在FOAF社区中间,更经常的称为网页追逐者),是一种按照一定的规则,自动地抓取骨骼信息的程序或者脚本。另外一些不常使用的名字还有蚂蚁蚁,自动索引,模拟程序或蠕虫。 爬虫的具体步骤: 1,数据采集,经过一定的逻辑和策略,循环抓取网页上的数据,工作过程就像Ctrl + a-> Ctrl + c-> Ctrl + v; 2,解析,分析采集到的数据集,使用一定的规则或语法,提取相关的信息; 3,存储,将提取出的信息以我们
  3. 所属分类:其它

    • 发布日期:2021-02-21
    • 文件大小:13631488
    • 提供者:weixin_42132354