您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. 链接器和加载器(loader and linker)

  2. 《链接器和加载器》讲述构建程序的关键工具——链接器和加载器,内容包括链接和加载、体系结构、目标文件、存储分配、符号管理、库、重定位、加载和覆盖、共享库、动态链接和加载、动态链接的共享库,以及着眼于成熟的现代链接器所做的一些变化;并介绍一个持续的实践项目,即使用Perl语言开发一个可用的小链接器。 《链接器和加载器》适合高校计算机相关专业的学生、实习程序员、语言设计者和开发人员阅读参考。 第1章 链接和加载 1.1 链接器和加载器做什么? 1.2 地址绑定:从历史的角度 1.3 链接与加载 1.
  3. 所属分类:C++

    • 发布日期:2010-04-30
    • 文件大小:5242880
    • 提供者:dayuguoji
  1. 在android中使用jsoup解析页面链接

  2. http://www.blogjava.net/pengo/archive/2011/03/14/346176.html的附件源码
  3. 所属分类:Android

    • 发布日期:2011-03-14
    • 文件大小:138240
    • 提供者:penngo
  1. 115网盘解析

  2. 最近115网盘上视频资源被封锁了,好多给力视频都无法下载,于是popok自己编写了一个115网盘地址解析工具。即使115下载页面中没有可用的下载地址,你也可以使用它来提取出直接下载地址,用于迅雷等下载软件高速下载,当然不仅是视频资源,只要是115网盘资源都可以解析! 115网盘解析工具主要功能: 1、下载115网盘“共享已过期”的文件; 2、下载115网盘 “文件包含争议内容,已经禁止下载”的文件 3、强制收藏功能 和 专用链接还原功能; 4、115网盘地址解析为普通下载地址的功能。 5、收藏
  3. 所属分类:其它

    • 发布日期:2012-03-05
    • 文件大小:159744
    • 提供者:lijama
  1. 链接器和加载器

  2. 第0 章 引子......................................................................................................................................10 献给.......................................................................................................
  3. 所属分类:其它

    • 发布日期:2012-10-14
    • 文件大小:5242880
    • 提供者:xxxcneebbk
  1. 解析页面链接

  2. 本来想直接看sdk中的doc文档来学习android的,结果发现里面的英文资料,学起来速度有点慢,遂买了本android的教程书回来学习,刚好看到一个书里面一个使用java.net.URL访问网页的例子,之前在做采集的时候,使用了html解析器jsoup来获取页面所有链接,顺便试下把jsoup放进android中使用下,发现jsoup在android中能直接使用
  3. 所属分类:Android

    • 发布日期:2012-11-30
    • 文件大小:532480
    • 提供者:zmp37
  1. java解析给定url

  2. HtmlParse,解析给定url中的中文字符,输出到文本文件中: url:可配置多个 输出路径:可配置 package com.lhs; import java.io.BufferedReader; import java.io.BufferedWriter; import java.io.File; import java.io.FileOutputStream; import java.io.IOException; import java.io.InputStream; import
  3. 所属分类:Java

    • 发布日期:2013-09-23
    • 文件大小:4096
    • 提供者:lhs295988029
  1. ecshop标签解析

  2. 先从index.php主页开始 页面关键字 {$keywords } 页面标题 {$page_title} 产品分类 父分类列表 {foreach from=$categories item=cat } 父分类超链接 [url==”{$cat.url}”>{$cat.name|escape:html} 相对应子分类 {foreach from=$cat.children item=child} 子分类超链接 [url==”{$child.url}”>{$child.name|esc
  3. 所属分类:互联网

    • 发布日期:2015-10-12
    • 文件大小:33792
    • 提供者:ynwolf
  1. 取页面所有链接,很不错的!

  2. 搜索引擎基本原理是解析html取得页面所有a标签,这里给出原码只是一个小demo,用net编写!
  3. 所属分类:Web开发

    • 发布日期:2009-01-05
    • 文件大小:1024
    • 提供者:wan766405890
  1. scrutiny.dmg scrutiny: 9.6.0检查您的网站。 链接,SEO,站点地图,拼写

  2. 检查您的网站。 链接,SEO,站点地图,拼写等等。 链接检查 Integrity,Integrity Plus和Integrity Pro的所有功能。同样快速,高效,准确的引擎。拥有更多功能和选项-验证(扫描需要登录的站点)pdf文档中的测试链接,在解析之前呈现js等。 还支持并协助您迁移到https。报告带有旧https链接的页面以及使用http资源(混合/不安全内容)的页面。 搜索引擎优化 一次扫描后,Scrutiny会保存有关您网站的大量信息。搜索,过滤,导出。显示
  3. 所属分类:Web开发

    • 发布日期:2020-03-30
    • 文件大小:9437184
    • 提供者:hu_zhenghui
  1. WordPress中获取页面链接和标题的相关PHP函数用法解析

  2. 主要介绍了WordPress中获取页面链接和标题的相关PHP函数用法解析,分别为get_permalink()和wp_title()函数的使用,需要的朋友可以参考下
  3. 所属分类:其它

    • 发布日期:2020-10-23
    • 文件大小:59392
    • 提供者:weixin_38752897
  1. WordPress中获取页面链接和标题的相关PHP函数用法解析

  2. get_permalink()(获取文章或页面链接) get_permalink() 用来根据固定连接返回文章或者页面的链接。在获取链接时 get_permalink() 函数需要知道要获取的文章的 ID,如果在循环中则自动默认使用当前文章。 用法 get_permalink( $id, $leavename ); 参数 $id (混合)(可选)文章或者页面的 ID(整数);还可以是文章对象。 默认值:在循环中自动调用当前的文章 $leavename (布尔)(可选)转化成链接是是否忽略文章
  3. 所属分类:其它

    • 发布日期:2020-12-18
    • 文件大小:64512
    • 提供者:weixin_38532629
  1. Python爬虫获取页面所有URL链接过程详解

  2. 如何获取一个页面内所有URL链接?在Python中可以使用urllib对网页进行爬取,然后利用Beautiful Soup对爬取的页面进行解析,提取出所有的URL。 什么是Beautiful Soup? Beautiful Soup提供一些简单的、python式的函数用来处理导航、搜索、修改分析树等功能。它是一个工具箱,通过解析文档为用户提供需要抓取的数据,因为简单,所以不需要多少代码就可以写出一个完整的应用程序。 Beautiful Soup自动将输入文档转换为Unicode编码,输出文档转换
  3. 所属分类:其它

    • 发布日期:2020-12-17
    • 文件大小:47104
    • 提供者:weixin_38731979
  1. 软件测试之常用的功能测试方法解析[1]

  2. 软件测试之常用的功能测试方法解析[1]软件测试功能测试就是对产品的各功能进行验证,根据功能测试用例,逐项测试,检查产品是否达到用户要求的功能。常用的测试方法如下:1.页面链接检查:每一个链接是否都有对应的页面,并且页面之间切换正确。2  软件测试之常用的功能测试方法解析[1]  软件测试  功能测试就是对产品的各功能进行验证,根据功能测试用例,逐项测试,检查产品是否达到用户要求的功能。常用的测试方法如下:  1.页面链接检查:每一个链接是否都有对应的页面,并且页面之间切换正确。  2.相关性检查
  3. 所属分类:其它

    • 发布日期:2021-03-23
    • 文件大小:46080
    • 提供者:weixin_38719564
  1. Code:通过解析“泡在网上的日子”的网页内容,截取开源代码的展示信息。在截取的同时,继续加载具体源代码的介绍页面,把在Github的地址链接也截取了-源码

  2. 代码 通过解析“泡在网上的日子”的网页内容,截取开源代码的展示信息。在截取的同时,继续加载特定源代码的介绍页面,把放在Github的地址链接也截取了。 该项目使用了Fresco框架对图片进行展示和缓存,只想说它太强大了。不必纠结Gif图片的缓存问题了。自己写了它,主要是为了以后再查看某些轮子的时候,能够快捷便利。不过,第一次使用的时候,要确保在网络正常的情况下,而且会很久,大概十分钟吧,因为目前,泡在网上的日子网站的代码大概有580个左右。想想,访问六百多个网页要多久?!还要对每个网页进行解析!
  3. 所属分类:其它

    • 发布日期:2021-03-23
    • 文件大小:961536
    • 提供者:weixin_42133329
  1. xenu 网站链接抓取工具

  2. 针对网站的首页,对所有网站页面所有关联链接进行反复解析爬取,可获取网站的相关链接地址
  3. 所属分类:互联网

    • 发布日期:2021-03-10
    • 文件大小:277504
    • 提供者:weixin_43929986
  1. web-scraper-and-excel-writer:一个Python脚本,它提取遍历网页列表的表的链接和名称。 最后将收集的数据转储到excel文件中-源码

  2. Python WebScraper和Writer Workbook Excel文件 一个简单的python scraper 在此进行了,访问了指定字母之间的每个页面。 怎么运行的 使用urllib.request.urlopen(url)获取页面内容,然后使用解析html并将此参数作为features=html.parser 。 然后,我们就可以深入研究html内容并过滤所需的元素。 在这种情况下,该表具有唯一的标识符,因此我们搜索class属性为wikitable table元素。 然后,我
  3. 所属分类:其它

    • 发布日期:2021-03-02
    • 文件大小:5242880
    • 提供者:weixin_42121905
  1. Claimid-Dump:从关闭的Claimid.com用户页面中提取和转储链接和数据的服务-源码

  2. 使用其他来源转储从提取的数据和链接。 当前,支持,例如,参见用户名 。 去做 ☐还要从提取数据,例如,请参见用户名 。 ☐根据json数据输出原始Claimid用户页面的副本。 ☐不要小写用户名,以防URL中出现问题。 ☐修复项目文件/文件夹结构。 ☐将mongodb推迟到一个单独的项目中。 :check_box_with_check: 缓存检索到的响应。 :check_box_with_check: 保存已解析的json结果。 执照 版权所有(c)2013。保留所有权利。 使用Clai
  3. 所属分类:其它

    • 发布日期:2021-02-27
    • 文件大小:53248
    • 提供者:weixin_42131633
  1. Tiny-Search-Engine:这是一个微型搜索引擎,具有3个核心组件。 它包含一个网页搜寻器,页面索引器和一个查询器。 它们共同构成了一个微型搜索引擎,可以对网页进行排名,并根据输入的查询提供最适用的网页-源码

  2. 吴瑞安 小型搜索引擎项目 这是一个微型搜索引擎,具有3个核心组件。 抓取器,它抓取一个网页并通过检索从初始页面链接的所有页面进行抓取。 一个索引器,用于获取这些页面并根据单词的外观对页面#排名进行计数和存储。 这些单词-页面排名对存储在填充有集合数据结构的哈希表中。 给定输入查询器的查询器将解析查询,并打印出最适合搜索的URL和页面的排名列表。 要构建,请运行make 。 要清理,请运行make clean 。
  3. 所属分类:其它

    • 发布日期:2021-02-18
    • 文件大小:99328
    • 提供者:weixin_42131352
  1. get-crowdin-file-ids:生成指向您在Crowdin上的内容的深层链接-源码

  2. 获取Crowdin文件ID 在上生成指向您内容的深层链接 为什么? 想象一下,您正在网站上提供一些由翻译的内容,并且您想在每个页面上添加一个链接,以使翻译人员可以直接跳转到在Crowdin网站上翻译该内容。 不幸的是,Crowdin的翻译页面上的URL有点晦涩难懂。 这是一个例子: https://crowdin.com/translate/electron/56/en-fr 这里56指的是Crowdin给定文件的内部id属性。 该模块通过从Crowdin的获取数据并将其奥秘响应结构解析
  3. 所属分类:其它

    • 发布日期:2021-02-12
    • 文件大小:66560
    • 提供者:weixin_42134054
  1. spotibot:一个后端,用于读取包含Spotify链接的GroupMe消息并将其添加到Spotify播放列表-源码

  2. SpotiBot 该平台可将漫游器添加到选定的GroupMe组中,并从该组的消息中解析Spotify URL,并将其添加到Spotify播放列表中。 可用脚本 在项目目录中,可以运行: npm start 在开发模式下运行应用程序。 打开在浏览器中查看。 如果进行编辑,页面将重新加载。 您还将在控制台中看到任何棉绒错误。 npm test 在交互式监视模式下启动测试运行程序。 有关更多信息,请参见关于的部分。 npm run build 构建生产到应用程序build文件夹。 它在生产模
  3. 所属分类:其它

    • 发布日期:2021-02-09
    • 文件大小:760832
    • 提供者:weixin_42097369
« 12 3 4 5 6 7 8 9 10 ... 20 »