您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. 基于内存映射文件技术的海量影像数据快速读取方法.pdf

  2. 基于内存映射文件技术的海量影像数据快速读取方法
  3. 所属分类:专业指导

    • 发布日期:2010-04-28
    • 文件大小:117760
    • 提供者:kuelite
  1. SQL分页读取海量数据存储过程

  2. 一个可以从数据库中分页读取海量数据的存储过程.
  3. 所属分类:其它

    • 发布日期:2008-02-28
    • 文件大小:946
    • 提供者:chinasasu
  1. 海量(大量)数据GridView显示高效率分页实现方法

  2. GridView显示海量数据时效率极其低,每次要从数据库从取出海量数据,这明显不现实。 显示多少,就从数据库中读取多少数据,即每次取GridView显示的一个页面数据,点击下一页是,再取下一页相应的数据。
  3. 所属分类:C#

    • 发布日期:2011-09-26
    • 文件大小:36864
    • 提供者:hgm210
  1. 大型文件的读取,数据共享

  2. 通常情况下,用文件读写函数对文件进行处理,如Win32 API 的CreateFile(), WriteFile(), ReadFile() 等。一般来说,以上这些函数可以满足大多数场合的要求,但是对于某些领域需要几十GB,几百GB的海量存储,用通常的处理方法进行文件处理显然是行不通的。对大型文件的操作一般是一内存映射的方式来加以处理。
  3. 所属分类:C++

    • 发布日期:2012-12-02
    • 文件大小:1048576
    • 提供者:yjdengxd
  1. SQL分页读取海量数据存储过程

  2. SQL分页读取海量数据存储过程
  3. 所属分类:SQLServer

    • 发布日期:2013-01-20
    • 文件大小:946
    • 提供者:xiao_yue_yue
  1. 海量数据匹配 数据库

  2. 可以直接运行,海量数据读取、匹配和查询 完成了资源的有效控制以及数据库的读取
  3. 所属分类:专业指导

    • 发布日期:2008-10-21
    • 文件大小:20480
    • 提供者:longlongagozlb
  1. Java poi基于事件驱动读取excel 2007海量数据 处理空单元格

  2. 该工具类是poi基于事件驱动去读取海量excel数据,解决内存溢出以及空单元格的问题。 该压缩包里面有两个文件,TestExcel.java主要是原始的处理方法,操作简单,适合小数据量的读取。 ExampleEventUserModelUtil.java是处理大数据量的。users40.xlsx是测试文件,里面有40万条数据。 jar包都在jar文件夹里面。
  3. 所属分类:Java

    • 发布日期:2017-03-24
    • 文件大小:10485760
    • 提供者:u014154007
  1. java海量数据读写优化方案

  2. 对大数据文本文件读取(按行读取)的优化,目前常规的方案有三种,第一种LineNumberReader,第二种RandomAccessFile,第三种是内存映射文件在RandomAccessFile基础上调用getChannel().map(...);代码提供在RandomAccessFile基础上,整合内部缓冲区,效率会有提高,测试过程中1000w行数据用时1秒,1亿行数据用时103(比1438秒快了13倍左右)
  3. 所属分类:Java

    • 发布日期:2017-09-06
    • 文件大小:4096
    • 提供者:allenlei2008
  1. SQL-DFS:一种基于HDFS的海量小文件存储系统.pdf

  2. 针对 Hadoop 分布式文件系统(Hadoop distributed file system,HDFS)进行小文件存储时 NameNode 内存占用率高的问题,通过分析 HDFS 基础架构,提出了基于元数据存储集群的 SQL-DFS 文件系统. 通过在 NameNode 中加 入小文件处理模块实现了小文件元数据由 NameNode 内存到元数据存储集群的迁移,借助关系数据库集群实现了小文件元数据的快速读写,并对小文件读取过程进行化,减少了文件客户端对 NameNode 的请求次数;通过将部
  3. 所属分类:Java

    • 发布日期:2017-09-13
    • 文件大小:2097152
    • 提供者:fanpei_moukoy
  1. 车载激光点云海量数据的管理与快速显示_李婕

  2. 针对激光雷达海量点云数据管理与显示问题,提出了一种数据访问效率的优化方案,该方案采用磁盘映射方式读取数据并引入分块索引的方法进而在VC++环境下成功编写调度模块,可为三维数据的显示过程点云数据管理软件调用
  3. 所属分类:算法与数据结构

    • 发布日期:2017-11-07
    • 文件大小:562176
    • 提供者:baidu_25135481
  1. 海量存储原理系列

  2. 用户接口是指结构化查询语言(SQL)。 关系代数是数据库关系模型和关系演算的理论基础。 事务引擎是保证事务ACID性质的组件,在很大程度上影响数据库的效率。 存 和索引是数 库 本模块, 数 织和操作方式。一致性和隔离性,可以归结为一个问题,即数据什么时候可被共享,什么时候必 须被独占。这些决策,最终决定整个数据库系统的并行度,直接决定多线程并发 的性能指标 更改数据的同时要保证一致性和隔离性,就要使得针对不同数据的更改,不同人 或杋器不发送冲突。如果出现对相同薮据的更改,则要将更新进行排队。一
  3. 所属分类:MySQL

    • 发布日期:2019-07-02
    • 文件大小:465920
    • 提供者:abacaba
  1. 计算机硬盘的读取安全性初探

  2. 如今互联网和信息技术发展迅速,计算机硬盘上存有海量的数据信息,既有个人的隐私数据,也有企业的商业机密。计算机硬盘的读取安全性越来越引起人们的关注。文章对计算机硬盘进行概括性描述,解读计算机硬盘存储技术的原理,分析当前计算机硬盘数据安全性问题,如何通过设置策略应对计算机硬盘数据安全问题。对当前社会的信息安全现状进行分析,关注信息安全发展的趋势。
  3. 所属分类:其它

    • 发布日期:2020-06-04
    • 文件大小:470016
    • 提供者:weixin_38691256
  1. C#在MySQL大量数据下的高效读取、写入详解

  2. 最近由于工作的原因,经常需要对海量数据进行处理,做的数据爬虫相关,动辄千万级别的数据,单表几十个G 都是都是家常便饭。 那么主要的开发语言是C#,数据库使用的是MySQL。下面通过这篇文章我们来一起学习学习吧。
  3. 所属分类:其它

    • 发布日期:2020-09-01
    • 文件大小:74752
    • 提供者:weixin_38508821
  1. C#如何在海量数据下的高效读取写入MySQL

  2. 主要介绍了C#如何在海量数据下的高效读取写入MySQL的相关资料,需要的朋友可以参考下
  3. 所属分类:其它

    • 发布日期:2020-09-09
    • 文件大小:130048
    • 提供者:weixin_38748239
  1. 非结构化海量网络数据处理技术研究

  2. 为实现网络化测试系统下非结构化海量网络数据的快速分析处理,在关键的算法和系统化集成处理方面提出解决方法。采用内存映射文件方式快速读取海量数据,并设计了时间矩阵算法,用以快速进行同步分析处理;应用分布式中间件方式实现海量数据的并发处理和数据分发,对飞行试验采集的网络数据进行了分析处理,使用这些算法的数据处理软件,可以使处理效率满足飞行试验海量网络数据处理的需求。这些都为新一代机载采集系统应用于飞行试验提供了技术保障。
  3. 所属分类:其它

    • 发布日期:2020-10-21
    • 文件大小:149504
    • 提供者:weixin_38748875
  1. 基于PHP读取TXT文件向数据库导入海量数据的方法

  2. 本篇文章小编为大家介绍,基于PHP读取TXT文件向数据库导入海量数据的方法。需要的朋友参考下
  3. 所属分类:其它

    • 发布日期:2020-10-27
    • 文件大小:48128
    • 提供者:weixin_38595689
  1. php与c 实现按行读取文件实例代码

  2. php与c 实现按行读取文件 前言 感觉很糟糕的一场电话一面竟然给了二面通知,好吧,给自己一个机会也给对方一次机会,题外话。海量数据处理经常涉及到hash将原来文件的每一行散列到子文件中,那如何按行读取文件呢,这里记录一下php和c的实现 很水的一篇,只是记录一下常用的方法,防止面试尴尬 php代码: <?php /** * 按行读取文件 * param string $filename */ function readFileByLine ($filename) { $
  3. 所属分类:其它

    • 发布日期:2020-12-18
    • 文件大小:43008
    • 提供者:weixin_38677255
  1. C#如何在海量数据下的高效读取写入MySQL

  2. 前提 由于工作的原因,经常需要对海量数据进行处理,做的数据爬虫相关,动辄千万级别的数据,单表几十个G都是都是家常便饭。  主要开发语言是C#,数据库使用的是MySQL。 最常见的操作便是 select 读取数据,然后在C#中对数据进行处理, 完毕后再插入数据库中。  简而言之就 select -> process -> insert三个步骤。 对于数据量小的情况下(百万级别 or 几百兆)可能最多1个小时就处理完了。但是对于千万级数据可能几天,甚至更多。 那么问题来了,如何优化?
  3. 所属分类:其它

    • 发布日期:2020-12-15
    • 文件大小:134144
    • 提供者:weixin_38673812
  1. mysql 海量数据的存储和访问解决方案

  2. 第1章  引言 随着互联网应用的广泛普及,海量数据的存储和访问成为了系统设计的瓶颈问题。对于一个大型的互联网应用,每天几十亿的PV无疑对数据库造成了相当高的负载。对于系统的稳定性和扩展性造成了极大的问题。通过数据切分来提高网站性能,横向扩展数据层已经成为架构研发人员首选的方式。水平切分数据库,可以降低单台机器的负载,同时最大限度的降低了了宕机造成的损失。通过负载均衡策略,有效的降低了单台机器的访问负载,降低了宕机的可能性;通过集群方案,解决了数据库宕机带来的单点数据库不能访问的问题;通过读写分离
  3. 所属分类:其它

    • 发布日期:2020-12-15
    • 文件大小:173056
    • 提供者:weixin_38674627
  1. SQL_DFS_一种基于HDFS的海量小文件存储系统_马志强.pdf

  2. 针对Hadoop 分布式文件系统(Hadoop distributed file system,HDFS)进行小文件存储时NameNode 内存占用率高的问题,通过分析HDFS 基础架构,提出了基于元数据存储集群的SQL-DFS 文件系统. 通过在NameNode 中加入小文件处理模块实现了小文件元数据由NameNode 内存到元数据存储集群的迁移,借助关系数据库集群实现了小文件元数据的快速读写,并对小文件读取过程进行优化,减少了文件客户端对NameNode 的请求次数;通过将部分DataNod
  3. 所属分类:Hadoop

    • 发布日期:2021-03-16
    • 文件大小:1048576
    • 提供者:C_harry
« 12 3 4 5 6 7 »