您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. 布隆过滤器在网页去重中的应用

  2. 布隆过滤器在网页去重中的应用 , 海量数据处理中的一个绝好应用
  3. 所属分类:专业指导

    • 发布日期:2010-11-29
    • 文件大小:2097152
    • 提供者:jinyu123
  1. SQL去重 清除冗余数据

  2. SQL去重,顾名思义,是清除查询结果或者是数据库里不必要的相对某个字段的冗余数据.
  3. 所属分类:其它

    • 发布日期:2010-12-16
    • 文件大小:175104
    • 提供者:karonkaron
  1. 基于特征码的网页去重算法研究

  2. 本文探讨了数据挖掘和搜索引擎的理论框架,以去除内容重复的冗余网页为研究目标, 分析了搜索引擎工作原理, 讨论了现有的去重算法。给出了一种基于特征码的网页去重算法, 并采用二叉排序树实现了算法。实验证明算法有着较高的去重准确率、召回率, 达到了对算法的预期。
  3. 所属分类:网络安全

    • 发布日期:2012-04-05
    • 文件大小:200704
    • 提供者:bbs271
  1. SQL Server 去重

  2. 关于SQL Server中的去重问题,内含详细测试数据
  3. 所属分类:SQLServer

    • 发布日期:2013-07-21
    • 文件大小:2048
    • 提供者:luofuxing
  1. txt去重复工具

  2. txt去重复工具,文本数据去重,就是把重复的数据去掉,因为数据有很多,不可能一个一个去找,因此文本数据去重工具就显得格外重要。
  3. 所属分类:C#

    • 发布日期:2013-12-30
    • 文件大小:215040
    • 提供者:u010804977
  1. 文本去重工具

  2. 工作中常常需要处理大量的客户手机号、客户QQ号、邮箱还有一些大量的文本数据。 如果只是几下kb的数据量去重,处理起来是很容易也很快的,网上有很多小软件都可以去重。 思途高效文本去重工具最大的不同点是大量数据处理时的高效。如果数据多达几兆或者几十几百兆时,去重将是一个大难题了。 我们在自己工作中遇到要处理几十兆数据时,网上那些工作,处理一次就需要几个小时,根本无法用,思途就自己开发了这个小软件。 几十兆的数据,差不多几十秒就能处理完成。很棒! 本着互联网人人为我,我为人人的精神,把这个软件分享给
  3. 所属分类:管理软件

    • 发布日期:2014-01-27
    • 文件大小:10240
    • 提供者:nabo_007
  1. 文本文件词表去重工具

  2. 小工具,自动去除文本文件中的重复数据,很好用。
  3. 所属分类:其它

    • 发布日期:2009-04-02
    • 文件大小:32768
    • 提供者:sunhaojay
  1. Java List中数据的去重

  2. 今天小编就为大家分享一篇关于Java List中数据的去重,小编觉得内容挺不错的,现在分享给大家,具有很好的参考价值,需要的朋友一起跟随小编来看看吧
  3. 所属分类:其它

    • 发布日期:2020-08-26
    • 文件大小:60416
    • 提供者:weixin_38621150
  1. 海量数据去重排序bitmap(位图法)在java中实现的两种方法

  2. 今天小编就为大家分享一篇关于海量数据去重排序bitmap(位图法)在java中实现的两种方法,小编觉得内容挺不错的,现在分享给大家,具有很好的参考价值,需要的朋友一起跟随小编来看看吧
  3. 所属分类:其它

    • 发布日期:2020-08-26
    • 文件大小:55296
    • 提供者:weixin_38518376
  1. Oracle表中重复数据去重的方法实例详解

  2. 主要介绍了Oracle表中重复数据去重的方法实例详解的相关资料,需要的朋友可以参考下
  3. 所属分类:其它

    • 发布日期:2020-09-09
    • 文件大小:31744
    • 提供者:weixin_38630091
  1. Django ORM实现按天获取数据去重求和例子

  2. 主要介绍了Django ORM实现按天获取数据去重求和例子,具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧
  3. 所属分类:其它

    • 发布日期:2020-09-16
    • 文件大小:60416
    • 提供者:weixin_38752907
  1. VBA让Excel数据去重.docx

  2. 讲解怎么使用VBA处理 数据,主要是Excel中。包括讲解和源代码,有兴趣的可以看看--------后面描述纯属凑字数,看看即可
  3. 所属分类:VB

    • 发布日期:2020-09-15
    • 文件大小:14336
    • 提供者:saga20081208
  1. Python对多属性的重复数据去重实例

  2. 下面小编就为大家分享一篇Python对多属性的重复数据去重实例,具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧
  3. 所属分类:其它

    • 发布日期:2020-09-20
    • 文件大小:33792
    • 提供者:weixin_38702945
  1. JS数组去重常用方法实例小结【4种方法】

  2. 主要介绍了JS数组去重常用方法,结合实例形式总结分析了4种常用的数据去重实现方法,涉及javascr ipt数组的遍历、判断、追加等相关操作技巧,需要的朋友可以参考下
  3. 所属分类:其它

    • 发布日期:2020-10-18
    • 文件大小:47104
    • 提供者:weixin_38522552
  1. js脚本实现数据去重

  2. 最近在一个项目中,需要去除掉重复的数据,之前都是在后台实现,现在客户需求是在前台去重,于是就想到了javascr ipt脚本。
  3. 所属分类:其它

    • 发布日期:2020-10-25
    • 文件大小:26624
    • 提供者:weixin_38717896
  1. Oracle表中重复数据去重的方法实例详解

  2. Oracle表中重复数据去重的方法实例详解 我们在项目中肯定会遇到一种情况,就是表中没有主键 有重复数据 或者有主键 但是部分字段有重复数据 而我们需要过滤掉重复数据 下面是一种解决方法 delete from mytest ms where rowid in (select aa.rid from (select rowid as rid, row_number() over(partition by s.name order b
  3. 所属分类:其它

    • 发布日期:2020-12-16
    • 文件大小:34816
    • 提供者:weixin_38530846
  1. Python对多属性的重复数据去重实例

  2. python中的pandas模块中对重复数据去重步骤: 1)利用DataFrame中的duplicated方法返回一个布尔型的Series,显示各行是否有重复行,没有重复行显示为FALSE,有重复行显示为TRUE; 2)再利用DataFrame中的drop_duplicates方法用于返回一个移除了重复行的DataFrame。 注释: 如果duplicated方法和drop_duplicates方法中没有设置参数,则这两个方法默认会判断全部咧,如果在这两个方法中加入了指定的属性名(或者称为列名)
  3. 所属分类:其它

    • 发布日期:2020-12-25
    • 文件大小:35840
    • 提供者:weixin_38699724
  1. paper_checking_system:基于C#和C ++开发的文本查重论文查重系统,一亿字次级论文库秒级查重。关联:查重算法,数据去重,文本去重-源码

  2. 简体中文论文查重系统 写在前面 本项目于在2017年完成了第一版并购使用,后经一年多的稳定运行和维护升级,于2018年开源。由于项目架构较老,目前本项目以维护为主进行常规更新和BUG修复,不再进行大的功能性更新。 相关SDK 目前团队开发了一套新的查重SDK(JAVA版)项目链接: ://dreamspark.com.cn/blog/?id 使用示例: : SDK相较于本项目更新频率更高也拥有一些更新更高级的特性。现有的多个商用查重系统和查重网站基于此SDK开发上线。欢迎大家试用,反馈,希
  3. 所属分类:其它

    • 发布日期:2021-01-31
    • 文件大小:5242880
    • 提供者:weixin_42181693
  1. 利用Redis进行数据去重

  2. 前言 之前有篇文章提到了实现增量爬虫可以利用redis数据库进行url去重,今天博主就给大家分享一下python如何利用redis进行去重吧。在试验中,我们用到Redis数据库和hash算法,我们先了解一下Redis和hashlib。 Redis简介 Redis 是完全开源免费的,遵守BSD协议,是一个高性能的key-value数据库。 Redis 优势 读写速度极快,Redis能读的速度是110000次/s,写的速度是81000次/s 。 支持多种数据结构:string(字符串);list(列
  3. 所属分类:其它

    • 发布日期:2021-01-21
    • 文件大小:62464
    • 提供者:weixin_38684976
  1. pandas中的数据去重处理的实现方法

  2. 数据去重可以使用duplicated()和drop_duplicates()两个方法。 DataFrame.duplicated(subset = None,keep =‘first’ )返回boolean Series表示重复行 参数:  subset:列标签或标签序列,可选 仅考虑用于标识重复项的某些列,默认情况下使用所有列 keep:{‘first’,‘last’,False},默认’first’ first:标记重复,True除了第一次出现。 last:标记重复,True除了
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:73728
    • 提供者:weixin_38584642
« 12 3 4 5 6 7 8 9 10 ... 50 »