您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. 网页链接搜索王[WebScanKing]

  2. 国产简体中文版自动批量搜索并提取出网页上符合条件的超链接软件。运行程序后先根据搜索站点的页面数据规律生成待搜索的网站页面地址列表,然后导入该列表后搜索即可。根据网站访问速度快慢调节搜索间隔时间,软件自动打开每个网站页面提取超链接,自动提取符合条件的超链接,去掉不符合条件的超链接并可去掉重复网址。软件可以搜索ASP/PHP/CGI等各种形式的网页,包括那些需要进行COOKIS验证登陆的站点,都可轻松地快速搜集到大量的目标超链接地址。搜索到的超链接地址列表文件可以为配套的邮件地址搜索、传真号码搜索
  3. 所属分类:C#

    • 发布日期:2009-12-19
    • 文件大小:296960
    • 提供者:ouyangmin
  1. 网页链接搜索王[WebScanKing]

  2. 国产简体中文版自动批量搜索并提取出网页上符合条件的超链接软件。运行程序后先根据搜索站点的页面数据规律生成待搜索的网站页面地址列表,然后导入该列表后搜索即可。根据网站访问速度快慢调节搜索间隔时间,软件自动打开每个网站页面提取超链接,自动提取符合条件的超链接,去掉不符合条件的超链接并可去掉重复网址。软件可以搜索ASP/PHP/CGI等各种形式的网页,包括那些需要进行COOKIS验证登陆的站点,都可轻松地快速搜集到大量的目标超链接地址。搜索到的超链接地址列表文件可以为配套的邮件地址搜索、传真号码搜索
  3. 所属分类:Web开发

    • 发布日期:2009-12-25
    • 文件大小:381952
    • 提供者:ouyangmin
  1. 小程序-提取页面Email

  2. 自己写的,提取页面Email的小工具,只要在seed.txt里添加一个url做种子,程序就会自动便利所有链接,并提取页面的Email数据,存入email.txt中
  3. 所属分类:Java

    • 发布日期:2011-02-26
    • 文件大小:1048576
    • 提供者:xjl1985
  1. 提取页面中所有链接

  2. 通过js来获取页面所有的a标签链接 并统计链接个数
  3. 所属分类:Web开发

    • 发布日期:2013-01-31
    • 文件大小:2048
    • 提供者:fffgggzzz
  1. 抓图神器2016

  2. Features: 1. 从指定网页以及符合所设定的正则表达式匹配规则的二级页面中,下载所有图片到指定目录, 一张图下载完成后会执行检查,自动删除头像之类的小图。 图片以该图在网页源码中的名字命名,若指定目录中已存在同名文件,则自动在后面加上“(1)”,若还存在则加“(2)”...以此类推。 一次下载任务中,若同一图片出现多次(以完整的uri地址为准),只下载一次。 默认保存位置为用户图片目录下的SavedPics目录,若该目录不存在,点击提取图片后开始下载前,会自动创建;用户也可自行选择保存
  3. 所属分类:C#

    • 发布日期:2016-02-14
    • 文件大小:211968
    • 提供者:ilinq
  1. 抓图神器2016 with update 1

  2. Features: 1. 从指定网页以及符合所设定的正则表达式匹配规则的二级页面中,一键下载所有图片。 一张图下载完成后会执行检查,自动删除头像之类的小图。 图片以该图在网页源码中的名字命名,若指定目录中已存在同名文件,则自动在后面加上“(1)”,若还存在则加“(2)”...以此类推。 一次下载任务中,若同一图片出现多次(以完整的uri地址为准),只下载一次。 默认保存位置为用户图片目录下的SavedPics目录,若该目录不存在,点击提取图片后开始下载前,会自动创建;用户也可自行选择保存位置。
  3. 所属分类:C#

    • 发布日期:2016-02-17
    • 文件大小:212992
    • 提供者:ilinq
  1. 抓图神器2016 with update 2

  2. Features: 1. 从指定网页以及符合所设定的正则表达式匹配规则的二级页面中,一键下载所有图片。 一张图下载完成后会执行检查,自动删除头像之类的小图。 图片以该图在网页源码中的名字命名,若指定目录中已存在同名文件,则自动在后面加上“(1)”,若还存在则加“(2)”...以此类推。 一次下载任务中,若同一图片出现多次(以完整的uri地址为准),只下载一次。 默认保存位置为用户图片目录下的SavedPics目录,若该目录不存在,点击提取图片后开始下载前,会自动创建;用户也可自行选择保存位置。
  3. 所属分类:C#

    • 发布日期:2016-02-20
    • 文件大小:1048576
    • 提供者:ilinq
  1. 从搜索引擎或者具体网页上提取链接

  2. [软件功能]: 本软件用于从搜索引擎或者具体网页上提取链接,主要用途是搜索留言本、论坛、blog等地址 通过您设定的关键词 软件自动在搜索引擎结果里提取符合条件的连接 本软件把超链接分为两部分看待:连接和连接名称 通过对这两部分的设定来提取符合要求的连接 可以设定只提取含有某“特征词”的网址 也可以设定过滤含有某“特征词”的网址(针对链接) 可以设定只提取链接名称含有某“特征词”的网址 也可以设定过滤链接名称含有某“特征词”的网址(针对链接名称) 提取搜索结果是一门技术,需要一定的电脑和网络基
  3. 所属分类:C#

    • 发布日期:2009-02-07
    • 文件大小:9216
    • 提供者:chnww
  1. 一键提取网站页面内链接工具

  2. 这是一款自动获取网站内链工具,不可多得,实乃seor人员的福利,值得收藏!1、适用seo优化排名人员专用!2、省去大量手工整理时间,工具自动获取网站所有内链,方便快捷!3、将提取到的内链有计划性提交百度收录/蜘蛛收录,大大提高收录量!4、线程设置越大,获取内链速度越快!
  3. 所属分类:互联网

    • 发布日期:2018-07-29
    • 文件大小:823296
    • 提供者:wuxianglan
  1. 网页所有链接提取工具(爱站之家).rar

  2. 本程序由爱站之家制作,其他网站在本人不知道的情况下发布的,本人不保证程序的完整性,推荐A5下载 刚刚开发了一款工具 手动提交百度收录链接的  需要的群共享自己下载  可以提取网页所有链接   设置下要提取的目录即可提取所有链接了  比如 新闻是列表是 http://www.XXX.com/plus/list.php?tid=34   比如你有500篇新闻,在网站后台列表中让他全部显示出来在一个页面上  (数量修改即可) 然后配合这个工具可以全部提取出来 去百度站长平台提交收录吧  功能很实用
  3. 所属分类:其它

    • 发布日期:2019-07-12
    • 文件大小:6144
    • 提供者:weixin_39840515
  1. 网页链接提取工具.rar

  2. 软件功能:本工具可一键提取网页上的链接网址、链接标题、电话号码、手机号码、电子邮件、身份证号码、IP地址等内容; 友情提示:软件只能提取网页上的信息,网页上没有的信息提取不到,需要登录才能显示的信息或加密的信息也提取不到; 使用说明:把你要提取的页面,如网站首页或栏目页地址放进来进行提取,如果是有分页的,把分页也放进来即可。
  3. 所属分类:互联网

    • 发布日期:2020-01-05
    • 文件大小:548864
    • 提供者:jinniuxiansheng
  1. Python爬虫获取页面所有URL链接过程详解

  2. 如何获取一个页面内所有URL链接?在Python中可以使用urllib对网页进行爬取,然后利用Beautiful Soup对爬取的页面进行解析,提取出所有的URL。 什么是Beautiful Soup? Beautiful Soup提供一些简单的、python式的函数用来处理导航、搜索、修改分析树等功能。它是一个工具箱,通过解析文档为用户提供需要抓取的数据,因为简单,所以不需要多少代码就可以写出一个完整的应用程序。 Beautiful Soup自动将输入文档转换为Unicode编码,输出文档转换
  3. 所属分类:其它

    • 发布日期:2020-12-17
    • 文件大小:47104
    • 提供者:weixin_38731979
  1. dns-over-wikipedia:使用在主题的Wikipedia页面上找到的官方链接来重定向.idk域-源码

  2. 维基百科上的DNS Wikipedia跟踪流行网站的官方URL。 安装了Wikipedia上的DNS后,通过搜索Wikipedia并从信息框中提取相关的URL来重定向以.idk结尾的域。 例子: 在浏览器地址栏中键入scihub.idk/ 观察重定向到https://sci-hub.tw (在撰写本文时) 我没有搜索该网站,而是用Google搜索该网站的Wikipedia文章(“ schihub wiki”),该文章通常在边栏中有指向该网站的最新链接,而Google被迫审查其结果。
  3. 所属分类:其它

    • 发布日期:2021-03-03
    • 文件大小:683008
    • 提供者:weixin_42116734
  1. web-scraper-and-excel-writer:一个Python脚本,它提取遍历网页列表的表的链接和名称。 最后将收集的数据转储到excel文件中-源码

  2. Python WebScraper和Writer Workbook Excel文件 一个简单的python scraper 在此进行了,访问了指定字母之间的每个页面。 怎么运行的 使用urllib.request.urlopen(url)获取页面内容,然后使用解析html并将此参数作为features=html.parser 。 然后,我们就可以深入研究html内容并过滤所需的元素。 在这种情况下,该表具有唯一的标识符,因此我们搜索class属性为wikitable table元素。 然后,我
  3. 所属分类:其它

    • 发布日期:2021-03-02
    • 文件大小:5242880
    • 提供者:weixin_42121905
  1. Claimid-Dump:从关闭的Claimid.com用户页面中提取和转储链接和数据的服务-源码

  2. 使用其他来源转储从提取的数据和链接。 当前,支持,例如,参见用户名 。 去做 ☐还要从提取数据,例如,请参见用户名 。 ☐根据json数据输出原始Claimid用户页面的副本。 ☐不要小写用户名,以防URL中出现问题。 ☐修复项目文件/文件夹结构。 ☐将mongodb推迟到一个单独的项目中。 :check_box_with_check: 缓存检索到的响应。 :check_box_with_check: 保存已解析的json结果。 执照 版权所有(c)2013。保留所有权利。 使用Clai
  3. 所属分类:其它

    • 发布日期:2021-02-27
    • 文件大小:53248
    • 提供者:weixin_42131633
  1. peek-link:用于获取开放图形设置的软件包,以及来自url或html内容块中的第一个链接的twitter链接预览数据-源码

  2. 偷看链接 获取开放的grah设置,并通过提供的URL进行Twitter链接预览数据。 PeekLink还允许您传递包含锚标记的html文本块,并将从锚标记中提取的url中获取链接预览数据。 创建PeekLink是为了帮助构建社交媒体供稿功能,例如大多数社交网络中链接预览的显示方式。 特征 从提供的url的html中的meta标签获取打开的图形和twitter数据,例如页面图像,描述和标题。 从html块的html锚标记中提取第一个url,并获取与其关联的链接预览 正在安装 npm instal
  3. 所属分类:其它

    • 发布日期:2021-02-15
    • 文件大小:29696
    • 提供者:weixin_42128270
  1. nativescript-rickandmorty-api:NativeScript应用程序,演示如何使用API​​调用。 对于这个项目,我使用了Rick and Morty Public Api。 该应用程序有两个屏幕,页面内容和事件。

  2. nativescr ipt-rickandmorty-api Nativescr ipt应用程序演示了如何使用API​​调用。 对于这个项目,我使用了Rick and Morty Public Api。 该应用程序有两个屏幕,页面内容和事件。 第一页包含第8季所有字符的列表。通过按任意字符链接,将触发第二页导航,然后进行另一个api调用以显示字符详细信息,例如名称,图片等。您可以通过克隆来检查代码库,并让我进行知道是否有任何问题。 屏风 这是应用程序的屏幕。 第一页加载没有数据。 在事件发生时
  3. 所属分类:其它

    • 发布日期:2021-02-04
    • 文件大小:1048576
    • 提供者:weixin_42172972
  1. pdfsam:PDFsam,一个桌面应用程序,用于提取页面,拆分,合并,混合和旋转PDF文件-源码

  2. PDFsam(PDF拆分并合并) PDFsam Basic的官方SCM存储库,这是一个免费的开放源代码,多平台软件,旨在提取页面,拆分,合并,混合和旋转PDF文件。 哪里 官方网站 执照 从版本3开始,PDFsam Basic在下是开源的,早期版本在GPLv2下发布。 要求 PDFsam Basic使用JavaFX编写。 版本4作为独立的应用程序发布,并包含一个链接的OpenJDK 11运行时,而版本3需要安装JavaFx的Java Runtime Environment 8才能运行。 文献资
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:2097152
    • 提供者:weixin_42148975
  1. xidel:使用CSS,XPath 3.0,XQuery 3.0,JSONiq或模式匹配从XMLXML页面或JSON-API下载和提取数据的命令行工具。 它还可以创建新的或转换的XMLHTMLJSON文档-源码

  2. 西德尔 Xidel是一个命令行工具,可使用CSS选择器,XPath / XQuery 3.0从HTML / XML页面下载和提取数据,以及使用JSONiq查询JSON文件或API(例如REST)。 有的无依赖。 它是我的Pascal Internet Tools(请参阅存储库internettools)的包装,因此它支持XPath 2.0,XPath 3.0,XQuery 1.0,XQuery 3.0,JSONiq,CSS选择器以及我自己的扩展名/语言(例如,模式匹配),以及是否可以编译该
  3. 所属分类:其它

    • 发布日期:2021-02-01
    • 文件大小:250880
    • 提供者:weixin_42099530
  1. 标记为副本复制::computer_mouse:浏览器扩展,可将超链接,图像和选定的文本复制为Markdown,并具有GFM支持-源码

  2. 复制为Markdown 浏览器扩展程序,用于将超链接,图像和选定的文本复制为Markdown 安装 屏幕截图 产品特点 该扩展程序允许您将页面上选定的文本作为Markdown复制,并支持以下功能: 能够复制链接,图像和所选文本作为Markdown。 链接的图像,将具有用于单独选择链接或图像的选项。 格式化文本,例如斜体,粗体, 删除线以及inline code 。 无序列表和有序列表,具有支持。 有关表格。 带围栏的代码块,使用进行语言检测。 注意:复制链接和图像时,Chro
  3. 所属分类:其它

    • 发布日期:2021-01-30
    • 文件大小:348160
    • 提供者:weixin_42097508
« 12 3 4 5 6 7 8 9 10 ... 18 »