点数信息
www.dssz.net
注册会员
|
设为首页
|
加入收藏夹
您好,欢迎光临本网站!
[请登录]
!
[注册会员]
!
首页
移动开发
云计算
大数据
数据库
游戏开发
人工智能
网络技术
区块链
操作系统
模糊查询
热门搜索:
源码
Android
整站
插件
识别
p2p
游戏
算法
更多...
在线客服QQ:632832888
当前位置:
资源下载
搜索资源 - robots.txt使用
下载资源分类
移动开发
开发技术
课程资源
网络技术
操作系统
安全技术
数据库
行业
服务器应用
存储
信息化
考试认证
云计算
大数据
跨平台
音视频
游戏开发
人工智能
区块链
在结果中搜索
所属系统
Windows
Linux
FreeBSD
Unix
Dos
PalmOS
WinCE
SymbianOS
MacOS
Android
开发平台
Visual C
Visual.Net
Borland C
CBuilder
Dephi
gcc
VBA
LISP
IDL
VHDL
Matlab
MathCAD
Flash
Xcode
Android STU
LabVIEW
开发语言
C/C++
Pascal
ASM
Java
PHP
Basic/ASP
Perl
Python
VBScript
JavaScript
SQL
FoxBase
SHELL
E语言
OC/Swift
文件类型
源码
程序
CHM
PDF
PPT
WORD
Excel
Access
HTML
Text
资源分类
搜索资源列表
robots.txt用法与写法
robots.txt是搜索引擎中访问网站的时候要查看的第一个文件。Robots.txt文件告诉蜘蛛程序在服务器上什么文件是可以被查看的。 当一个搜索蜘蛛访问一个站点时,它会首先检查该站点根目录下是否存在robots.txt,如果存在,搜索机器人就会按照该文件中的内容来确定访问的范围;如果该文件不存在,所有的搜索蜘蛛将能够访问网站上所有没有被口令保护的页面。 robots.txt必须放置在一个站点的根目录下,而且文件名必须全部小写。
所属分类:
其它
发布日期:2010-12-22
文件大小:7168
提供者:
xonmao2008
asp.net 全静态化个人博客系统 前台后台分离 利于收录 程序序上传空间就可以使用
压缩包中内附程序一套,截图几张,使用说明,CMS参数说明一份(是CMS的,不是博客的,博客基本上用不着,我也没有改) 功能及说明 .net全静态化个人博客系统 .net 2.0的内库 access数据库 DIV+CSS 兼容IE ff,其它浏览器未知 前台、后台分离,后台功能强大,简单。前台可根据情况更改 内附文件管理系统 利于优化及收录,内置SEO设置,可自动生成robots.txt及sitemap.xml 可自由新建栏目及分类 可设计属于自己风格的博客(懂HTML+CSS就可以了,内附一套
所属分类:
C#
发布日期:2012-10-18
文件大小:1048576
提供者:
xu0207wei
wget命令用法
linux下的wget 命令的用法 wget支持HTTP HTTPS和FTP协议 可以使用HTTP代理 所谓的自动下载是指 wget可以在用户退出系统的之后在后台执行 这意味这你可以登录系统 启动一个wget下载任务 然后退出系统 wget将在后台执行直到任务完成 相对于其它大部分浏览器在下载大量数据时需要用户一直的参与 这省去了极大的麻烦 wget 可以跟踪HTML页面上的链接依次下载来创建远程服务器的本地版本 完全重建原始站点的目录结构 这又常被称作”递归下载” 在递归下载的时候 wget
所属分类:
其它
发布日期:2015-04-18
文件大小:11264
提供者:
mark_hui
robots.txt文件在线生成工具.zip
robots.txt可以告诉搜索引擎您的网站哪些页面可以被收录,哪些页面不可以被收录,如果您不想让搜索引擎收录您网站的某些内容,请用robots.txt文件指定搜索引擎在您网站上的抓取范围。 此工具本人找了很久,源码很轻量,占地24K,上传到空间更目录即可使用。
所属分类:
其它
发布日期:2019-07-14
文件大小:3072
提供者:
weixin_39840515
帝国CMS中robots.txt文件用法
主要为大家介绍了帝国CMS中robots.txt文件用法,详细分析了robots协议的原理与使用技巧,并实例讲述了帝国CMS中robots.txt文件的使用方法,需要的朋友可以参考下
所属分类:
其它
发布日期:2020-09-29
文件大小:57344
提供者:
weixin_38604653
浅析php fwrite写入txt文件的时候用 \r\n不能换行的问题
今天遇到了一个问题就是用fwrite写入txt文件的时候用 rn不能换行试了很久都没找到办法!突然之间想到一个东东以前看书见过后来还是用这个东东给解决了!现在写出来预防将来忘记也希望能帮到需要帮助的朋友!直接看代码:复制代码 代码如下: 您可能感兴趣的文章:PHP连接access数据库PHP连接Access数据库的方法小结用ADODB来让PHP操作ACCESS数据库的方法PHP使用PDO连接
所属分类:
其它
发布日期:2020-12-18
文件大小:34816
提供者:
weixin_38721398
link-lock:在浏览器中使用AES进行密码保护的URL;创建没有浏览器扩展的隐藏书签-源码
链接锁 Link Lock现在可以通过敲书签来支持安全,隐藏的书签!阅读更多。 关于 链接锁定是用于加密和解密URL的工具。当用户访问加密的URL时,将提示他们输入密码。如果密码正确,则“链接锁定”将检索原始URL,然后将其重定向到该URL。否则,将显示错误。用户还可以添加提示以显示在密码提示附近。 每个加密的URL完全存储在应用程序生成的链接中。结果,用户可以控制使用链接锁创建的所有数据。什么都没有存储在服务器上,也没有cookie,跟踪或注册。 链接锁有许多用途: 将私人书签存储在共享计算
所属分类:
其它
发布日期:2021-03-19
文件大小:52224
提供者:
weixin_42116847
wordlists:单词列表及其使用位置-源码
词表 红色分组中常用的词表。 . ├── dirbuster # wordlists bundled with dirbuster └── README.md 单词列表的来历 RAFT(响应分析和进一步测试)单词列表。 这些单词列表是从排名靠前的170万个网站上的robots.txt文件生成的(请参阅Smartfuzzing the Web,BlackHatUSA 2011 ,幻灯片19)。 初始扫描 raft-small-words.txt 扫描文件 扫描目录
所属分类:
其它
发布日期:2021-03-17
文件大小:4194304
提供者:
weixin_42105570
fetchbot:一个简单而灵活的Web爬网程序,它遵循robots.txt策略和爬网延迟-源码
抓取机器人 软件包fetchbot提供了一个简单而灵活的Web搜寻器,它遵循robots.txt策略和搜寻延迟。 它是使用更简单的API,更少的内置功能,但同时具有更大灵活性的对的重写。 至于Go本身,有时少即是多! 安装 要安装,只需在终端中运行: go get github.com/PuerkitoBio/fetchbot 该软件包具有单个外部依赖项 。 它还集成了代码。 。 变化 2019-09-11(v1.2.0):更新robotstxt依赖项(由于提出了问题,导入路径/仓库UR
所属分类:
其它
发布日期:2021-02-24
文件大小:31744
提供者:
weixin_42116847
海葵:海葵网络蜘蛛框架-源码
银莲花 Anemone是一个网络蜘蛛框架,可以蜘蛛一个域并收集有关其访问页面的有用信息。 它用途广泛,可让您快速轻松地编写自己的特殊蜘蛛任务。 有关更多信息,请参见 。 功能 多线程设计实现高性能 跟踪301 HTTP重定向 内置BFS算法确定页面深度 允许排除基于正则表达式的URL 选择链接,在每个页面上使用focus_crawl() HTTPS支持 记录每页的响应时间 CLI程序可以列出域中的所有页面,计算页面深度等 遵守robots.txt 使用TokyoCabinet,SQL
所属分类:
其它
发布日期:2021-02-20
文件大小:34816
提供者:
weixin_42133918
设计系统:收集rezo产品中使用的React成分-源码
Universal React App 创建通用React应用程序的样板。 产品特点 React Application + Express服务器-您可以同时构建前端和后端,非常适合全栈开发人员。 热重装-您在客户端和服务器代码上保存的更改会立即反映出来。 高性能-快速启动和构建时间。 灵活的配置-配置使您可以根据用例进行极大的自定义。 支持SEO-使用服务器端渲染,React SPA不会出现SEO问题。 Sitemap和robots.txt可以作为静态文件包含在内。 快速部署-使
所属分类:
其它
发布日期:2021-02-06
文件大小:224256
提供者:
weixin_42137539
spidr:通用的Ruby Web爬虫库,可以对站点,多个域,某些链接或无限地进行爬虫。 Spidr设计为快速且易于使用-源码
斯皮德 描述 Spidr是一个通用的Ruby Web爬虫库,可以对一个站点,多个域,某些链接或无限地进行爬虫。 Spidr设计为快速且易于使用。 产品特点 遵循: a标签。 ifr a me代码。 frame标签。 受Cookie保护的链接。 HTTP 300、301、302、303和307重定向。 元刷新重定向。 HTTP基本身份验证受保护的链接。 黑名单或白名单URL基于: URL方案。 主机名 端口号 完整连结 URL扩展 可选的/robots.txt支持。 提供以下
所属分类:
其它
发布日期:2021-02-05
文件大小:55296
提供者:
weixin_42134051
mr-roboto::robot:处理并解析网站的robots.txt文件并提取可操作的信息-源码
罗博托先生 Roboto先生旨在处理和解析网站的robots.txt文件,从而提供了一个简单的界面来验证是否允许使用特定路径。 Mr-Roboto尚未准备好生产,因此不应在任何关键任务代码库中使用。
所属分类:
其它
发布日期:2021-02-04
文件大小:39936
提供者:
weixin_42134537
robots.txt:robots.txt即服务。 抓取robots.txt文件,下载并解析它们以通过API检查规则-源码
:robot: robots.txt即服务 :robot: :construction: 开发中的项目 通过API访问权限的分布式robots.txt解析器和规则检查器。 如果您正在使用分布式Web爬网程序,并且想要礼貌行事,那么您会发现此项目非常有用。 另外,该项目可用于集成到任何SEO工具中,以检查机器人是否正确索引了内容。 对于第一个版本,我们正在尝试遵守Google用于分析网站的规范。 你可以看到它。 期待其他机器人规格的支持! 为什么要这个项目? 如果您要构建分布式Web搜寻器,
所属分类:
其它
发布日期:2021-02-04
文件大小:2097152
提供者:
weixin_42129113
robots-txt-parser:PHP类,用于根据规范解析robots.txt文件中的所有指令-源码
robots-txt解析器 —用于解析robots.txt文件的所有指令PHP类 根据robots.txt规则,用于检查PHP类是允许还是禁止url。 尝试在实时域上在线RobotsTxtParser。 解析是根据Google&Yandex规范的规则进行的: 最后改进: 根据clean-param语法解析Clean-param指令。 删除注释(“#”字符之后的所有内容,直到第一个换行符都将被忽略) 主机解析的改进-交集指令,应参考用户代理'*'; 如果有多个主机,则搜索引擎将采用第一
所属分类:
其它
发布日期:2021-02-03
文件大小:69632
提供者:
weixin_42160278
Robots.txt-Parser-Class:robots.txt解析的Php类-源码
Robots.txt php解析器类 PHP类可根据Google,Yandex,W3C和The Web Robots Pages规范来解析robots.txt规则。 支持的规范的完整列表(以及尚不支持的规范)在中可用。 安装 该库可通过Composer软件包安装。 要通过Composer安装,请将需求添加到您的composer.json文件中,如下所示: { " require " : { " t1gor/robots-txt-parser " : " dev-ma
所属分类:
其它
发布日期:2021-02-03
文件大小:232448
提供者:
weixin_42097369
网络状态:使用AJAX和PHP的轻量级脚本,用于显示网站状态和ping-源码
网络状态 官方资源:copyright:Indra&Stefan 变更日志 更新: 根据PHP 7.1重构,方法: 更新: Functions.php现在是一个类,并通过将注释翻译为英语 更新: 通过添加了config.php来设置设置 更新: 通过添加了对Ajax的支持 更新: 清理和翻译, 更新: 通过添加了移动响应 更新: “ Improved”检查和类的构造方式。, 更新: 通过更新了robots.txt 更新: 通过恢复已删除的template.php 更新: 通过
所属分类:
其它
发布日期:2021-01-30
文件大小:9216
提供者:
weixin_42153615
记一次用Python爬取代理IP并使用
前言 首先说一下代理IP的用法途(代码中会有涉及):代理IP可以用来隐藏你的真实IP,你访问网站是通过代理服务器来做一个中转,所以目标服务器只能看到代理服务器的IP地址,这样就可以让你的IP地址实现隐身的功能 准备工作 我这边是找到了一个平台:https://www.kuaidaili.com/,先在地址后面加robots.txt查看平台的robots协议(https://www.kuaidaili.com/robots.txt)如下,可以看到平台未明令禁止爬虫爬取的页面,那我们就可以放心爬了。
所属分类:
其它
发布日期:2021-01-21
文件大小:125952
提供者:
weixin_38749305
php使用curl简单抓取远程url的方法
本文实例讲述了php使用curl抓取远程url的方法。分享给大家供大家参考。具体如下: cURL是一个非常有用的php库,可以用来连接不通类型的服务器和协议,下面是一个最基本的范例用来抓取远程网页 希望本文所述对大家的php程序设计有所帮助。
所属分类:
其它
发布日期:2021-01-20
文件大小:28672
提供者:
weixin_38649091
apache使用.htaccess文件实现屏蔽wget下载网站内容
经发现,虽然wget遵循 robots.txt 规则,但是那个还是可以绕过去,现在把我自己使用的屏蔽方法分享给大家: 1. 屏蔽下载任何文件 .htaccess SetEnvIfNoCase User-Agent ^wget bad_bot Order Allow,Deny Allow from all Deny from env=bad_bot 2. 屏蔽下载部分文件 .htaccess SetEnvIfNoCase User-Agent ^Wget bad_bot Se
所属分类:
其它
发布日期:2021-01-10
文件大小:40960
提供者:
weixin_38750761
«
1
2
3
4
5
6
7
8
»