您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. easyduplicate磁盘文件去重整理工具_v1.5

  2. easyduplicate磁盘文件去重整理工具_v1.5 电脑用久了一定会有很多重复的文件吧,给磁盘减减肥吧.
  3. 所属分类:其它

    • 发布日期:2012-04-22
    • 文件大小:463872
    • 提供者:lk_blog
  1. 索引文件去重

  2. 索引文件去重
  3. 所属分类:Web开发

    • 发布日期:2012-04-24
    • 文件大小:19922944
    • 提供者:goldfish0328
  1. 文件去重工具

  2. C#编写的文件去重工具 利用临时文件去重 效率高
  3. 所属分类:C#

    • 发布日期:2013-06-09
    • 文件大小:9216
    • 提供者:kerro0506
  1. 文件去重工具

  2. 一款好用的文件去重工具,分享给大家
  3. 所属分类:网管软件

    • 发布日期:2013-09-26
    • 文件大小:785408
    • 提供者:u012234864
  1. 文件去重软件

  2. 这个文件时软媒的软件带有文件去重功能!在第一行菜单中有“重复文件查找”,点击后就可以等待查找到的重复文件,各位祝好!
  3. 所属分类:管理软件

    • 发布日期:2014-03-03
    • 文件大小:780288
    • 提供者:blacet
  1. 文件去重软件

  2. 文件去重软件
  3. 所属分类:Java

    • 发布日期:2014-03-14
    • 文件大小:241664
    • 提供者:lzamor
  1. 文本处理工具 文件去重工具

  2. 文本处理工具 文件去重工具
  3. 所属分类:C#

    • 发布日期:2014-08-23
    • 文件大小:2097152
    • 提供者:jgl5987
  1. 大文件去重 布隆算法

  2. 大文件去重 布隆算法
  3. 所属分类:C#

    • 发布日期:2014-08-23
    • 文件大小:39936
    • 提供者:jgl5987
  1. Duplicate Cleaner Pro 文件去重工具

  2. 这是一款文件去重工具,支持多种条件的文件查询,以及多种方式的去除重复
  3. 所属分类:网管软件

    • 发布日期:2017-10-24
    • 文件大小:3145728
    • 提供者:xwlll226598
  1. 文件去重工具FDUPES.zip

  2. FDUPES 是一个文件去重工具,可在指定的文件夹中标识出重复的文件。 使用方法: Usage: fdupes [options] DIRECTORY...  -r --recurse       for every directory given follow subdirectories                     encountered within  -R --recurse:      for each directory given after this option 
  3. 所属分类:其它

    • 发布日期:2019-07-16
    • 文件大小:71680
    • 提供者:weixin_39840914
  1. GB和TB级别的大文件去重排序

  2. 该案例主要是针对大文件的去重排序项目,目前支持GB乃至TB级别的数据量,项目思路是针对大文件进行分治的项目,大文件分化成多个小文件,然后再进行排序和去重,目前是在linux系统上进行运行
  3. 所属分类:Linux

  1. 文件去重的win工具

  2. 文件去重的win工具
  3. 所属分类:Microsoft

    • 发布日期:2020-03-29
    • 文件大小:401408
    • 提供者:wuj1935
  1. shell两个文件去重的多种姿势

  2. 最近在利用shell帮公司优化挖掘关键词的流程,用shell替代了多个环节的操作,极大提高了工作效率。下面这篇文章就给大家分享了利用shell实现两个文件去重的多种姿势,有需要的朋友们可以参考借鉴,下面来一起看看吧。
  3. 所属分类:其它

    • 发布日期:2020-09-15
    • 文件大小:52224
    • 提供者:weixin_38691739
  1. Python实现的txt文件去重功能示例

  2. 主要介绍了Python实现的txt文件去重功能,涉及Python针对txt文本文件的读写、字符串遍历、判断相关操作技巧,需要的朋友可以参考下
  3. 所属分类:其它

    • 发布日期:2020-09-20
    • 文件大小:34816
    • 提供者:weixin_38626075
  1. 对python读写文件去重、RE、set的使用详解

  2. 今天小编就为大家分享一篇对python读写文件去重、RE、set的使用详解,具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧
  3. 所属分类:其它

    • 发布日期:2020-09-19
    • 文件大小:30720
    • 提供者:weixin_38670433
  1. 详解PHP多个进程配合redis的有序集合实现大文件去重

  2. 主要介绍了PHP多个进程配合redis的有序集合实现大文件去重,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友们下面随着小编来一起学习学习吧
  3. 所属分类:其它

    • 发布日期:2020-10-17
    • 文件大小:43008
    • 提供者:weixin_38737335
  1. Python实现的txt文件去重功能示例

  2. 本文实例讲述了Python实现的txt文件去重功能。分享给大家供大家参考,具体如下: # -*- coding:utf-8 -*- #! python2 import shutil a=0 readDir = "/Users/Administrator/Desktop/old.txt" #old writeDir = "/Users/Administrator/Desktop/new.txt" #new # txtDir = "/home/Administrator/Desktop/1" l
  3. 所属分类:其它

    • 发布日期:2020-12-24
    • 文件大小:40960
    • 提供者:weixin_38676216
  1. 详解PHP多个进程配合redis的有序集合实现大文件去重

  2. 1.对一个大文件比如我的文件为 -rw-r–r– 1 ubuntu ubuntu 9.1G Mar 1 17:53 2018-12-awk-uniq.txt 2.使用split命令切割成10个小文件 split -b 1000m 2018-12-awk-uniq.txt -b 按照字节切割 , 支持单位m和k 3.使用10个php进程读取文件 , 插入redis的有序集合结构中 , 重复的是插不进去的 ,因此可以起到去重的作用 <?php $file=$argv[1]; //守护进程
  3. 所属分类:其它

    • 发布日期:2021-01-02
    • 文件大小:59392
    • 提供者:weixin_38569109
  1. 对python读写文件去重、RE、set的使用详解

  2. 如下所示: # -*- coding:utf-8 -*- from datetime import datetime import re def Main(): sourcr_dir = '/data/u_lx_data/fudan/muying/muying_11yue_all.txt' target_dir = '/data/u_lx_data/fudan/muying/python/uid_regular_get.txt' uset = set() #去重 print(开始。。。
  3. 所属分类:其它

    • 发布日期:2021-01-21
    • 文件大小:33792
    • 提供者:weixin_38529251
  1. shell两个文件去重的多种姿势

  2. 前言 大家都知道shell在文本处理上确有极大优势,比如多文本合并、去重等,但是最近遇到了一个难搞的问题,即两个大数据量文件去重。下面来看看详细的介绍吧。 要求  有txt文件A.txt和B.txt。 其中A为关键词和搜索量,以逗号分隔,约90万行。 B为关键词,约400万行。 需要从A中找出与B重复的关键词。 我试了N种姿势,但结果都不尽人意,最奇怪的是有些方法对小数据量的测试文件有用,一旦用在A与B上就会失败,真叫人百思不得其解。 姿势一: awk -F, '{print $1}' A &
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:56320
    • 提供者:weixin_38651286
« 12 3 4 5 6 7 8 9 10 ... 50 »