您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. 删除文本文件中重复行(vb.net)

  2. 删除文本文件中重复的行,用VB.net实现。只查询文本中单列数值中重复的行,删除然后输出无重复行。
  3. 所属分类:VB

    • 发布日期:2010-06-01
    • 文件大小:2048
    • 提供者:zhangyulc
  1. 文本文件,删除重复行

  2. 删除100万行、100M的文本文件重复行,只需0.3秒。 pascal语言编写,压缩包内有两个版本,一个是Delphi7编译的版本,一个是Free pascal编译的版本,Delphi7版本稍快一点。
  3. 所属分类:Delphi

    • 发布日期:2011-07-19
    • 文件大小:76800
    • 提供者:cnswyiwusuozhi
  1. 阿海去文本工具

  2. 这是一个功能强大、操作简单的文本处理器,它包括了文本文件分割、合并,文本替换,繁简中文转换,编码格式转换等多种功能。
  3. 所属分类:其它

    • 发布日期:2011-11-04
    • 文件大小:150528
    • 提供者:secucctv
  1. 文本文件去除重复记录

  2. 在文件中发现和去除重复的文本记录,方便对于IP地址集一类的资料进行重整
  3. 所属分类:其它

    • 发布日期:2012-01-29
    • 文件大小:582656
    • 提供者:topkvm
  1. QQ聊天整理

  2. 本程序用于整理手机QQ导出的txt格式聊天记录,具有对多份聊天记录文档进行合并、去重、按时间排序的功能。 本程序采用Android QQ2013 v4.1.1.1560导出的聊天记录进行测试,其它版本如果格式不一致,可能导致出错。 使用方法:将需要整理的手机QQ聊天记录拷贝到计算机的同一个文件夹中,点击“打开聊天文件”按钮,在打开文件对话框中,用Ctrl或Shift键选中多个文件打开,点击“读取聊天记录”按钮,读取完毕后点击“导出到文本文件”按钮,选择保存路径即可。 特殊功能:支持对聊天双方不
  3. 所属分类:Access

    • 发布日期:2013-06-04
    • 文件大小:186368
    • 提供者:whludan
  1. QQ聊天记录整理工具 TxtRecordTool v1.0.0.1

  2. 本程序用于整理手机QQ导出的txt格式聊天记录,具有对多份聊天记录文档进行合并、去重、按时间排序的功能。 本程序采用Android QQ2013 v4.1.1.1560导出的聊天记录进行测试,其它版本如果格式不一致,可能导致出错。 使用方法:将需要整理的手机QQ聊天记录拷贝到计算机的同一个文件夹中,点击“打开聊天文件”按钮,在打开文件对话框中,用Ctrl或Shift键选中多个文件打开,点击“读取聊天记录”按钮,读取完毕后点击“导出到文本文件”按钮,选择保存路径即可。 特殊功能:支持对聊天双方不
  3. 所属分类:Access

    • 发布日期:2013-06-05
    • 文件大小:187392
    • 提供者:whludan
  1. 去除重复文本工具

  2. 去除重复文本工具:检测txt文档中的重复文本,找出重复内容并自动存档为另外文本文件。【2013-06-17收集与网络,用360检测为安全软件】
  3. 所属分类:其它

    • 发布日期:2013-06-17
    • 文件大小:616448
    • 提供者:u011094960
  1. 文本处理工具 文件去重工具

  2. 文本处理工具 文件去重工具
  3. 所属分类:C#

    • 发布日期:2014-08-23
    • 文件大小:2097152
    • 提供者:jgl5987
  1. 文本字符串对比工具

  2. 如A.txt中有4行: aaa bbb ccc ccc B.txt中有5行 aaa bbb ccc ccc ddd eee 第一个文件插入b.txt,第二个文件插入a.txt,输出c.txt,得出的结果应该为: ddd eee
  3. 所属分类:Java

    • 发布日期:2014-08-25
    • 文件大小:13631488
    • 提供者:vinsonpyg
  1. 图片批量重命名工具

  2. 本软件仅是日常工作时需要处理一些特殊情况制作的软件,因此功能不完善,也没心思去考虑一些异常的问题。用是可以用。 1、因为表格行删除的问题,因此在重命名完一次以后,请退出后再继续使用。 2、本软件是在原文件格式上重新命名,请在命名前做好备份。 3、软件仅为了批量进行图片重命名,大家如果有需求可以QQ(250848046)联系我要源码,稍做修改就能用于其他格式文件的重命名。 使用顺序: 1、先在右侧填充上如下格式的数据 (源文件名 目标文件名) DSCF4786.jpg 潘昱泽.jpg DSCF4
  3. 所属分类:Java

    • 发布日期:2014-11-23
    • 文件大小:39936
    • 提供者:dxwary
  1. 字符去重.html

  2. 在下面输入您的代码或文本,或直接把文件拖入到框中,内容会自动获取
  3. 所属分类:Javascript

    • 发布日期:2017-10-09
    • 文件大小:3072
    • 提供者:wenqianla2550
  1. 文本文件词表去重工具

  2. 小工具,自动去除文本文件中的重复数据,很好用。
  3. 所属分类:其它

    • 发布日期:2009-04-02
    • 文件大小:32768
    • 提供者:sunhaojay
  1. 文本文件按行去重

  2. 支持文本文件(不限于txt)去除重复行,自行修改输入文件即可
  3. 所属分类:Python

    • 发布日期:2018-07-16
    • 文件大小:215
    • 提供者:zfl1991926
  1. C局面比较判断法去重解决华容道一到两分钟.zip

  2. 关卡用文本文件编写,格式如下: 横刀立马一 0 1 2 2 曹操 2 1 2 1 关羽 0 0 1 2 张飞 2 0 1 2 马超 2 3 1 2 黄忠 0 3 1 2 赵云 3 1 1 1 一兵 3 2 1 1 二兵 4 0 1 1 三兵 4 3 1 1 四兵 求解时控制台显示不了这么多信息的话可以用批处理命令。具体方式:cmd打开该文件夹,输入命令main 1.txt > 推荐方案.txt 回车 即对当前的1.txt关卡求解并将答案打印到推荐方案.txt 文本
  3. 所属分类:C

    • 发布日期:2020-02-11
    • 文件大小:763904
    • 提供者:qq_36694133
  1. Python实现的txt文件去重功能示例

  2. 主要介绍了Python实现的txt文件去重功能,涉及Python针对txt文本文件的读写、字符串遍历、判断相关操作技巧,需要的朋友可以参考下
  3. 所属分类:其它

    • 发布日期:2020-09-20
    • 文件大小:34816
    • 提供者:weixin_38626075
  1. python3.4.3下逐行读入txt文本并去重的方法

  2. 读写文件时应注意的问题包括: 1.字符编码 2.操作完成即时关闭文件描述符 3.代码兼容性 几种方法: #!/bin/python3 original_list1=[" "] original_list2=[" "] original_list3=[" "] original_list4=[" "] newlist1=[" "] newlist2=[" "] newlist3=[" "] newlist4=[" "] newtxt1="" newtxt2="" newtxt3="" newtx
  3. 所属分类:其它

    • 发布日期:2020-12-25
    • 文件大小:166912
    • 提供者:weixin_38680247
  1. 记录一下 Java 代码实现文件夹、文件的对比,主要包含 word、pdf、文本、图片等相关文件的对比计算,以及计算文本的相似率(重复率)、筛选出差异的文件、方便文件和文档的去重,并封装为jar包

  2. 记录一下 Java 代码实现文件夹、文件的对比,主要包含 word、pdf、文本、图片等相关文件的对比计算,以及计算文本的相似率(重复率)、筛选出差异的文件、方便文件和文档的去重,并把所有的源码封装为jar包,简单集成,只需要一行代码即可调用。 1、准备工作 1)、下载封装好的jar包,并放入项目,具体可以参照下面的连接中的 “1.集成到项目” 这一章节: https://blog.csdn.net/u014374009/article/details/104783988 2)、准备两个有差异的
  3. 所属分类:其它

    • 发布日期:2020-12-22
    • 文件大小:1048576
    • 提供者:weixin_38725426
  1. TextMining:Python文本挖掘系统-源码

  2. 文本挖掘系统 系统说明 集成了文本过滤,去重及邮件实时通知的功能 集成了文本关键字提取的功能 集成了文本分类即打标签的功能 集成了文本推荐即景点评价的功能 支持中英文 系统架构图 关于分词 英文分词,采用nltk工具包进行分词 pip install nltk 中文分词,采用jieba工具包进行分词 pip install jieba jieba分词 dict 主词典文件 user_dict 用户词典文件,即分词白名单 user_dict为分词白名单 如果添加的过滤词(包括黑名单和白名单)无法
  3. 所属分类:其它

    • 发布日期:2021-03-11
    • 文件大小:3145728
    • 提供者:weixin_42098759
  1. paper_checking_system:基于C#和C ++开发的文本查重论文查重系统,一亿字次级论文库秒级查重。关联:查重算法,数据去重,文本去重-源码

  2. 简体中文论文查重系统 写在前面 本项目于在2017年完成了第一版并购使用,后经一年多的稳定运行和维护升级,于2018年开源。由于项目架构较老,目前本项目以维护为主进行常规更新和BUG修复,不再进行大的功能性更新。 相关SDK 目前团队开发了一套新的查重SDK(JAVA版)项目链接: ://dreamspark.com.cn/blog/?id 使用示例: : SDK相较于本项目更新频率更高也拥有一些更新更高级的特性。现有的多个商用查重系统和查重网站基于此SDK开发上线。欢迎大家试用,反馈,希
  3. 所属分类:其它

    • 发布日期:2021-01-31
    • 文件大小:5242880
    • 提供者:weixin_42181693
  1. shell两个文件去重的多种姿势

  2. 前言 大家都知道shell在文本处理上确有极大优势,比如多文本合并、去重等,但是最近遇到了一个难搞的问题,即两个大数据量文件去重。下面来看看详细的介绍吧。 要求  有txt文件A.txt和B.txt。 其中A为关键词和搜索量,以逗号分隔,约90万行。 B为关键词,约400万行。 需要从A中找出与B重复的关键词。 我试了N种姿势,但结果都不尽人意,最奇怪的是有些方法对小数据量的测试文件有用,一旦用在A与B上就会失败,真叫人百思不得其解。 姿势一: awk -F, '{print $1}' A &
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:56320
    • 提供者:weixin_38651286
« 12 3 4 5 6 7 8 9 10 »