您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. 数据库导入导出工具(dts)

  2. 目前只做了 mysql 数据库导入导出工具 使用属性文件配置数据库 可扩展其它数据库的导入导出 导出数据格式为xml文件支持超大数据文件(百兆以上)导入导出
  3. 所属分类:其它

    • 发布日期:2009-05-25
    • 文件大小:1048576
    • 提供者:rjgcs123
  1. 电子保险箱,是一款防止他人查看你私人文件,并集中管理的软件

  2. 长期以来各类加密软件直接将文件夹加密在用户操作不当等情况下造成系统稳定性下降,而且加密文件夹分散于电脑各处很容易忘记或混淆,或经多款加密程序加密后出现意外等,本软件使用统一管理的方式,而且直接对最终文件数据进行加解密,使您加密的稳件更加便于管理,更加可靠 本软件支持批量加/解密,支持超大容量文件,使你的工作更加快速方便,保险箱中支持创建N级子文件夹,支持文件夹重命名等 用途: 你可以把你的密码等,存于记事本或其他又保存到电子保险箱中,你也可以把不想让人看到的图片,DV等存在其中,当然XX电影也
  3. 所属分类:专业指导

    • 发布日期:2010-07-02
    • 文件大小:118784
    • 提供者:ygq2186
  1. java nio 包读取超大数据文件

  2. Java nio 超大数据文件 超大数据文件Java nio 超大数据文件 超大数据文件Java nio 超大数据文件 超大数据文件Java nio 超大数据文件 超大数据文件Java nio 超大数据文件 超大数据文件Java nio 超大数据文件 超大数据文件Java nio 超大数据文件 超大数据文件Java nio 超大数据文件 超大数据文件Java nio 超大数据文件 超大数据文件Java nio 超大数据文件 超大数据文件
  3. 所属分类:Java

    • 发布日期:2010-12-19
    • 文件大小:26624
    • 提供者:linchunbin
  1. 超大数据文件不能解压的解决方案

  2. 使用cygwin解压超大文件,由于数据包压缩文件中,单个数据文件超过4G的超大文件导至整个数据包解压进程等待而使数据导入未能成功
  3. 所属分类:网络攻防

    • 发布日期:2011-02-15
    • 文件大小:156672
    • 提供者:zoc2007
  1. Hadoop大数据零基础实战培训教程- Avro数据序列化系统(1)

  2. Hadoop是什么,为什么要学习Hadoop? Hadoop是一个分布式系统基础架构,由Apache基金会开发。用户可以在不了解分布式底层细节的情况下,开发分布式程序。充分利用集群的威力高速运算和存储。Hadoop实现了一个分布式文件系统(Hadoop Distributed File System),简称HDFS。HDFS有着高容错性的特点,并且设计用来部署在低廉的(low-cost)硬件上。而且它提供高传输率(high throughput)来访问应用程序的数据,适合那些有着超大数据集(l
  3. 所属分类:Java

    • 发布日期:2014-07-10
    • 文件大小:26214400
    • 提供者:u012543679
  1. Hadoop大数据零基础实战培训教程-Avro数据序列化系统(2)

  2. Hadoop是什么,为什么要学习Hadoop? Hadoop是一个分布式系统基础架构,由Apache基金会开发。用户可以在不了解分布式底层细节的情况下,开发分布式程序。充分利用集群的威力高速运算和存储。Hadoop实现了一个分布式文件系统(Hadoop Distributed File System),简称HDFS。HDFS有着高容错性的特点,并且设计用来部署在低廉的(low-cost)硬件上。而且它提供高传输率(high throughput)来访问应用程序的数据,适合那些有着超大数据集(l
  3. 所属分类:Java

    • 发布日期:2014-07-10
    • 文件大小:25165824
    • 提供者:u012543679
  1. VB读取超大2G文件.rar

  2. 能读写VB2G以上的数据文件。 原理非常简单。写了一个小小程序。能读写XP.gho超大的镜像文件。
  3. 所属分类:VB

    • 发布日期:2015-07-17
    • 文件大小:24576
    • 提供者:qwer430401
  1. vb读取2g文件(示例代码1)

  2. 能读写VB2G以上的数据文件,能读写XP.gho超大的镜像文件。感觉上一个示例代码比较难以理解,所以在同样原理上精简了一下,比较易懂。
  3. 所属分类:VB

    • 发布日期:2015-07-17
    • 文件大小:3072
    • 提供者:qwer430401
  1. Hadoop大数据零基础实战培训教程_Avro数据序列化系统.rar

  2. Hadoop是一个分布式系统基础架构,由Apache基金会开发。用户可以在不了解分布式底层细节的情况下,开发分布式程序。充分利用集群的威力高速运算和存储。Hadoop实现了一个分布式文件系统(Hadoop Distributed File System),简称HDFS。HDFS有着高容错性的特点,并且设计用来部署在低廉的(low-cost)硬件上。而且它提供高传输率(high throughput)来访问应用程序的数据,适合那些有着超大数据集(large data set)的应用程序。HDFS
  3. 所属分类:Web开发

    • 发布日期:2015-10-31
    • 文件大小:52428800
    • 提供者:celestialtao
  1. 大数据文件查看神奇

  2. 超大文件查看软件
  3. 所属分类:IT管理

    • 发布日期:2016-10-14
    • 文件大小:1048576
    • 提供者:crz_7
  1. linux文件系统基础知识

  2. linux文件系统基础知识 详细介绍Linux文件系统的知识。 文件系统类型: ext2 : 早期linux中常用的文件系统 ext3 : ext2的升级版,带日志功能 RAMFS : 内存文件系统,速度很快 NFS : 网络文件系统,由SUN发明,主要用于远程文件共享 MS-DOS : MS-DOS文件系统 VFAT : Windows 95/98 操作系统采用的文件系统 FAT : Windows XP 操作系统采用的文件系统 NTFS : Windows NT/XP 操作系统采用的文件系
  3. 所属分类:Linux

    • 发布日期:2008-12-22
    • 文件大小:36864
    • 提供者:dragon2000y
  1. 将MATLAB运行结束后保存的数据文件发送到指定邮箱

  2. 该函数是用来将MATLAB运行结束后保存的数据文件发送到指定邮箱的,附带消息包括邮件内容,数据附件,运行代码文件名,附件超大检测,本机名称等。默认邮箱为163,需要其他邮箱的请修改第13行。
  3. 所属分类:其它

  1. Snapde电子表格软件,一个超大数据量CSV编辑软件

  2. 如果CSV文件超过104万行Excel、wps打不开,使用什么软件对对超大CSV文件进行编辑呢?Snapde,它是最好用的CSV大文件编辑电子表格软件之一,内核全部用C语言编写,对于数据编辑和运算非常轻巧强大;能轻松打开2G大小一两千万行的CSV大文件,除了常用电子表格编辑功能,还具有:文件分割、合并、过滤、排序、删除重复等基本功能;并且集合了Exprtk、C语言、Python等脚本执行器,能在表格中写这三种脚本对数据进行运算处理,运行速度可以比java、C#都快。
  3. 所属分类:管理软件

    • 发布日期:2018-08-19
    • 文件大小:15728640
    • 提供者:feiren127
  1. Java处理100万行超大Excel文件秒级响应

  2. 由于项目需要对大量Excel数据进行输入输出处理,在使用JXL,POI后发现很容易出现OOM,最后在网上找到阿里的开源项目EasyExcel能很快速的读取写入超大Excel文件。经过大量的调试优化,现通过JAVA生成104万行20列的数据并写入到Excel文件的Sheet中只需要70秒的时间。
  3. 所属分类:Java

    • 发布日期:2019-01-16
    • 文件大小:203776
    • 提供者:qq_23729593
  1. Python多线程超大日志文件解析转储写入mysql/postgresql

  2. Python多线程超大日志文件解析转储,实现几十G超大文件并发处理。 实现功能如下: 1.多线程分块解析某超大日志文件,实现超大文件多线程分块处理 2.多线程写入数据到数据库postgresql/mysql 3.线程之间通过队列queue通讯 4.出错消息通过logging写日志 author: ray ----------web日志格式如下----------------- 21.106.138.118 - - [02/Mar/2015:16:27:22 +0800] "GET / HTTP
  3. 所属分类:Python

    • 发布日期:2019-01-28
    • 文件大小:12288
    • 提供者:bensentray
  1. marc大文件查看及检索--PxMarcBigFileView_0.2

  2. marc超大文件预览和检索工具(1)能够打开及检索超大marc数据文件(2)支持多种编码(3)自定义字段预览。 需JAVA 1.6以上,直接运行jar文件或bat文件即可。 联系作者:444057137qq.com
  3. 所属分类:教育

    • 发布日期:2019-10-08
    • 文件大小:1048576
    • 提供者:otsuka1943
  1. java-poi操作巨大数据文件.zip

  2. java poi 读取超大文档 excel时候,从电脑读成流会浪费很久时间,甚至超时。此方法适合万 十万 百万以上数据量的读取,亲测 7.5万条数据 13秒。
  3. 所属分类:Java

    • 发布日期:2019-08-02
    • 文件大小:2097152
    • 提供者:cyberherman
  1. PHP实现实时生成并下载超大数据量的EXCEL文件详解

  2. EXCEL文件的处理是我们在日常工作中经常会遇到的,这篇文章主要给大家介绍了关于利用PHP如何实现实时生成并下载超大数据量的EXCEL文件,通过文中介绍的这个方法对大家的学习或者工作具有一定的参考学习价值,需要的朋友可以参考借鉴,下面来一起看看吧。
  3. 所属分类:其它

    • 发布日期:2020-10-19
    • 文件大小:62464
    • 提供者:weixin_38571878
  1. python 快速把超大txt文件转存为csv的实例

  2. 今天项目有个需求,就是把txt文件转为csv,txt之间是空格隔开,转为csv时需要把空格转换为逗号,网上找的一个版本,只需要三行代码,特别犀利: import numpy as np import pandas as pd data_txt = np.loadtxt('datas_train.txt') data_txtDF = pd.DataFrame(data_txt) data_txtDF.to_csv('datas_train.csv',index=False) 上述的datas_
  3. 所属分类:其它

    • 发布日期:2020-12-23
    • 文件大小:43008
    • 提供者:weixin_38673694
  1. PHP实现实时生成并下载超大数据量的EXCEL文件详解

  2. 前言 最近在工作中接到一个需求,通过选择的时间段导出对应的用户访问日志到excel中, 由于用户量较大,经常会有导出50万加数据的情况。而常用的PHPexcel包需要把所有数据拿到后才能生成excel, 在面对生成超大数据量的excel文件时这显然是会造成内存溢出的,所以考虑使用让PHP边写入输出流边让浏览器下载的形式来完成需求。 我们通过如下的方式写入PHP输出流 $fp = fopen('php://output', 'a'); fputs($fp, 'strings'); .... ..
  3. 所属分类:其它

    • 发布日期:2020-12-20
    • 文件大小:65536
    • 提供者:weixin_38581405
« 12 3 4 5 6 7 8 9 10 »