您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. oracle SQL性能优化

  2. (1) 选择最有效率的表名顺序(只在基于规则的优化器中有效): ORACLE的解析器按照从右到左的顺序处理FROM子句中的表名,FROM子句中写在最后的表(基础表 driving table)将被最先处理,在FROM子句中包含多个表的情况下,你必须选择记录条数最少的表作为基础表。如果有3个以上的表连接查询, 那就需要选择交叉表(intersection table)作为基础表, 交叉表是指那个被其他表所引用的表. (2) WHERE子句中的连接顺序.: ORACLE采用自下而上的顺序解析WHE
  3. 所属分类:Oracle

    • 发布日期:2009-05-14
    • 文件大小:47104
    • 提供者:yexinhan
  1. Word常用查找与替换实例及方法

  2. Word常用查找与替换实例及方法 可以大幅提高排版效率! 不看绝对后悔,建议下了留着备用 另:别人写的,不记得从哪里下的了: 目录 Word查找与替换•ASCII字符集代码 I Word查找栏代码•通配符一览表 II Word查找栏代码•通配符示例 III Word替换栏代码•通配符一览表 IV 部分代码 可用/不可用 的特殊情况 V 使用“通配符”功能时需要注意的要点 VI 实例1:对未设大纲级别的文档自动设置 1 实例2:多级人工序号怎样变自动多级符号 1 实例3:一步替换法对齐人工目录人
  3. 所属分类:专业指导

    • 发布日期:2010-01-03
    • 文件大小:118784
    • 提供者:dextersa
  1. 亿彩文本文件批量处理器 v1.0

  2. 本软件提供了45大类共几百种针对txt文本文件的全文或者每一行的批量处理或者批量替换操作,是您经常性处理文本文件的得力工具。 功能大类列表如下(每一大类中又分别包含多项子功能): 1.强大的针对文本文档全文内容的批量字符或内容替换操作功能(跟Word的替换功能一样) 2.针对文本文档内容中每一行内容的特殊删除、特殊添加、统计分割功能 3.提取文本文档内容中的指定的行作为文本文件新文件名的功能 4.批量创建文本文档或文件夹 5.批量删除正文特定标记之前的所有内容 6.批量删除文档特定列 7.批量
  3. 所属分类:其它

    • 发布日期:2013-03-30
    • 文件大小:943104
    • 提供者:u010095998
  1. SQL 优化原则

  2. (转)SQL 优化原则 一、问题的提出  在应用系统开发初期,由于开发数据库数据比较少,对于查询SQL语句,复杂视图的的编写等体会不出SQL语句各种写法的性能优劣,但是如果将应用系统提交实际应用后,随着数据库中数据的增加,系统的响应速度就成为目前系统需要解决的最主要的问题之一。系统优化中一个很重要的方面就是SQL语句的优化。对于海量数据,劣质SQL语句和优质SQL语句之间的速度差别可以达到上百倍,可见对于一个系统不是简单地能实现其功能就可,而是要写出高质量的SQL语句,提高系统的可用性。   
  3. 所属分类:Oracle

    • 发布日期:2013-10-29
    • 文件大小:28672
    • 提供者:limei4625
  1. CAD图中删除重复实体

  2. 加载在CAD里,删除所有重复的东西,重复的文字,重复的块,重复的线段,重复的实体
  3. 所属分类:其它

    • 发布日期:2018-06-06
    • 文件大小:1024
    • 提供者:zhibiweiai
  1. Foundation框架 6.4.2.zip

  2. Foundation是一个易用、强大而且灵活的前端框架,用于构建基于任何设备上的Web应用,提供多种Web上的UI组件,如表单、按钮、Tabs等。Foundation 6.4.2 更新日志:2017-08-10更新和改进:返修网格容器;按钮光标现在可以通过设置配置;Abide选项现在可以递归合并,修复添加验证器的问题;允许通过断点来定义不同的画布大小。Bug修复:修复断点启用时的圆形原型;删除重复的最大宽度;使用响应式导航时修复下拉箭头位置问题;修复使用ruby-sass构建的等级问题;在转换
  3. 所属分类:其它

    • 发布日期:2019-05-23
    • 文件大小:9437184
    • 提供者:weixin_39840387
  1. SecureFileDeleter文件永久删除工具V6.03免费安装版

  2. Secure File Deleter是一款非常实用的文件删除工具,使用这款软件能够进行文件的快速删除,并且这款软件能够进行永久性删除,需要的小伙伴赶快下载吧。 软件功能 12个加密算法为了最大的安全性,点击这里查看列表。 可以重复覆盖数据1-50次(如果您想要最大的隐私)。 可以使删除的文件显示为空(这会删除MFT中的块链)。 可以将文件重命名为随机选择的文件名,以防止有人猜测文件的内
  3. 所属分类:其它

    • 发布日期:2019-08-05
    • 文件大小:1048576
    • 提供者:weixin_39840588
  1. RHEL 8 VDO重复数据删除和压缩存储.doc

  2. 虚拟数据优化器(VDO)以重复数据删除,压缩和精简配置的形式为Linux提供了内联数据缩减。设置VDO卷时,可以指定要在其上构造VDO卷的块设备以及计划提供的逻辑存储量。 • 当托管活动的虚拟机或容器时,红帽建议以10:1的逻辑与物理比率配置存储:即,如果您使用1 TB的物理存储,则将其表示为10 TB的逻辑存储。 • 对于对象存储(例如Ceph提供的类型),Red Hat建议使用3:1的逻辑与物理比率:也就是说,将1 TB的物理存储表示为3 TB的逻辑存储。 无论哪种情况,您都可以将文件系统
  3. 所属分类:其它

    • 发布日期:2019-10-11
    • 文件大小:658432
    • 提供者:allway2
  1. borg-macosx64 borgbackup: 1.1.11 重复数据删除备份程序

  2. BorgBackup(简称:Borg)是一个重复数据删除备份程序。 (可选)它支持压缩和经过身份验证的加密。 Borg的主要目标是提供一种有效且安全的备份数据方式。由于仅存储更改,因此使用的重复数据删除技术使Borg适合日常备份。经过身份验证的加密技术使其适合于备份到不完全受信任的目标。请参阅安装手册,或者如果已经下载了Borg,请参阅docs / installation.rst以开始使用Borg。还提供了多种格式的脱机文档。主要功能节省空间的存储基于内容定义的分块的重复数据删除用于减少存储的
  3. 所属分类:其它

    • 发布日期:2020-03-30
    • 文件大小:7340032
    • 提供者:hu_zhenghui
  1. Oracle中查找和删除重复记录方法

  2. 删除重复记录的方法原理:在Oracle中,每一条记录都有一个rowid,rowid在整个数据库中是唯一的,rowid确定了每条记录是在Oracle中的哪一个数据文件、块、行上。在重复的记录中,可能所有列的内容都相同,但rowid不会相同,所以只要确定出重复记录中那些具有最大rowid的就可以了,其余全部删除。重复记录判断的标准是:C1,C10和C20这三列的值都相同才算是重复记录。
  3. 所属分类:其它

    • 发布日期:2020-03-03
    • 文件大小:52224
    • 提供者:weixin_38614287
  1. 通信与网络中的浅谈重复数据删除技术的前景

  2. 重复数据删除是一种数据缩减技术,通常用于基于磁盘的备份系统,旨在减少存储系统中使用的存储容量。它的工作方式是在某个时间周期内查找不同文件中不同位置的重复可变大小数据块。重复的数据块用指示符取代。高度冗余的数据集(例如备份数据)从数据重复删除技术的获益极大;用户可以实现10比1至50比1的缩减比。而且,重复数据删除技术可以允许用户的不同站点之间进行高效,经济的备份数据复制。   备份设备中总是充斥着大量的冗余数据。为了解决这个问题,节省更多空间,“重复删除”技术便顺理成章地成了人们关注的焦点。采用
  3. 所属分类:其它

    • 发布日期:2020-10-22
    • 文件大小:249856
    • 提供者:weixin_38648968
  1. 重复数据删除算法在VTL系统中的应用研究

  2. 为了使VTL(虚拟磁带库)系统能更有效地利用磁盘空间,存储更多的数据信息,介绍了一种带有重复数据删除算法的虚拟磁带库应用方法。该方法从性能和效率等多方面考虑,首先把磁带按文件级去重,再将文件切分成块,通过Bloom Filter和MD5算法双重计算,经查找和存储实现数据块级的重复删除。实验测试证明,该方案稳定地实现了数据的去重及加密功能,能有效节省虚拟磁带库的存储空间。
  3. 所属分类:其它

    • 发布日期:2020-10-17
    • 文件大小:386048
    • 提供者:weixin_38570519
  1. 重复数据删除技术的发展及应用

  2. 重复数据删除技术包括相同数据重复数据删除技术和相似数据重复数据删除技术。相同数据重复数据删除技术主要有:相同文件重复数据删除技术、固定长度分块的重复数据删除技术、基于内容分块的重复数据删除技术、基于滑动块的重复数据删除技术和基于数据特征的重复数据消除算法等。重复数据删除技术适合应用于数据备份系统、归档存储系统、远程灾备系统等场合。
  3. 所属分类:其它

    • 发布日期:2020-10-25
    • 文件大小:231424
    • 提供者:weixin_38569515
  1. AE:一种用于带宽快速高效重复数据删除的非对称极值内容定义分块算法

  2. AE:一种用于带宽快速高效重复数据删除的非对称极值内容定义分块算法
  3. 所属分类:其它

    • 发布日期:2021-03-19
    • 文件大小:866304
    • 提供者:weixin_38661087
  1. tilesheet:一个小脚本,用于从PNG创建图块并删除相同的图块-源码

  2. 瓷砖制作器 一个简单的脚本,它将基于网格的图像作为参数并创建一个磁贴纸,从而消除所有重复的磁贴。 我为什么做这个? 在创建基于图块的游戏时,许多人直接与图块编辑器(如。 我经常倾向于直接在Photoshop中工作,在已经存在的情况下复制和粘贴图块,并在需要时即时创建新的图块。 我通常最终会得到一个巨大的混乱图像文件,其中包含很多重复的图块。 然后,我通常要做的是一遍一遍地挑瓷砖,然后手动将它们添加到新的Sprite工作表中。 这是一个非常耗时的过程,我想知道是否会有一些方法可以使它自动化。
  3. 所属分类:其它

    • 发布日期:2021-03-17
    • 文件大小:47104
    • 提供者:weixin_42129412
  1. duperemove:用于对文件系统进行重复数据删除的工具-源码

  2. 该自述文件适用于duperemove v0.11。 Duperemove Duperemove是一个简单的工具,用于查找重复的数据区并将其提交以进行重复数据删除。 当获得文件列表时,它将逐个块地对它们的内容进行哈希处理,并将这些哈希值相互比较,查找并分类彼此匹配的块。 当提供-d选项时,duperemove将使用Linux内核扩展区(与ioctl相同)提交这些扩展区以进行重复数据删除。 Duperemove可以将其计算的哈希存储在“哈希文件”中。 如果给定了现有的哈希文件,则duperemo
  3. 所属分类:其它

    • 发布日期:2021-03-11
    • 文件大小:193536
    • 提供者:weixin_42166105
  1. 基于回归检测的滑动块重复数据删除算法

  2. 基于回归检测的滑动块重复数据删除算法
  3. 所属分类:其它

    • 发布日期:2021-03-07
    • 文件大小:1048576
    • 提供者:weixin_38717980
  1. bup:基于git packfile格式的非常高效的备份系统,提供快速的增量保存和全局重复数据删除(文件间以及文件内,包括虚拟机映像)。 当前版本是0.31,开发分支是master。 请将问题或补丁发布到邮件列表中进行讨论(请参阅下面的自述

  2. bup:备份内容 bup是用于备份内容的程序。 这是“备份”的缩写。 您能相信,在所有这些时间之后,没有其他人将开放源程序命名为“ bup”吗? 我也不。 尽管名称不张扬,但是bup还是很酷的。 为了让您知道它有多酷,我写了这首诗给您: Bup is teh awesome What rhymes with awesome? I guess maybe
  3. 所属分类:其它

    • 发布日期:2021-02-26
    • 文件大小:555008
    • 提供者:weixin_42138703
  1. DeScaBaTo:重复数据删除Scala备份工具-源码

  2. DeScaBaTo 重复数据删除Scala备份工具。 主要是受启发,但内容定义的分块受启发。 目前,它仅支持本地备份,并且处于测试阶段。 对于0.6.0版,我重新实现了主要的备份功能,它现在基于akka流,而不仅仅是基于actor。 新的实现更简单,更快,我对此有更大的信心。 截至目前,它具有以下功能: 备份和还原文件和文件夹,包括元数据(lastModifiedTime,posix所有者和访问权限) 重复数据删除存储机制。 文件的相同部分仅保存一次。 支持7种不同的压缩算法,并为每种
  3. 所属分类:其它

    • 发布日期:2021-02-20
    • 文件大小:3145728
    • 提供者:weixin_42098759
  1. 浅谈重复数据删除技术的前景

  2. 重复数据删除是一种数据缩减技术,通常用于基于磁盘的备份系统,旨在减少存储系统中使用的存储容量。它的工作方式是在某个时间周期内查找不同文件中不同位置的重复可变大小数据块。重复的数据块用指示符取代。高度冗余的数据集(例如备份数据)从数据重复删除技术的获益极大;用户可以实现10比1至50比1的缩减比。而且,重复数据删除技术可以允许用户的不同站点之间进行高效,经济的备份数据复制。   备份设备中总是充斥着大量的冗余数据。为了解决这个问题,节省更多空间,“重复删除”技术便顺理成章地成了人们关注的焦点。采用
  3. 所属分类:其它

    • 发布日期:2021-01-19
    • 文件大小:234496
    • 提供者:weixin_38557757
« 12 3 4 5 6 7 8 9 10 ... 13 »