您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. 千万级别的用户处理wordpress 处理方式.ppt

  2. 千万级别的用户处理wordpress 处理方式 优化数据库千万记录的方式
  3. 所属分类:专业指导

    • 发布日期:2009-11-16
    • 文件大小:18432
    • 提供者:snowcav
  1. 高性能高并发服务器架构案例分析与总结

  2.  初创网站与开源软件 6  谈谈大型高负载网站服务器的优化心得! 8  Lighttpd+Squid+Apache搭建高效率Web服务器 9  浏览量比较大的网站应该从哪几个方面入手? 17  用负载均衡技术建设高负载站点 20  大型网站的架构设计问题 25  开源平台的高并发集群思考 26  大型、高负载网站架构和应用初探 时间:30-45分钟 27  说说大型高并发高负载网站的系统架构 28  mixi技术架构 51 mixi.jp:使用开源软件搭建的可扩展SNS网站
  3. 所属分类:Web开发

    • 发布日期:2010-11-12
    • 文件大小:5242880
    • 提供者:OnJava
  1. 高性能高并发服务器架构大全

  2. 整理的高性能高并发服务器架构文章,内容预览:  初创网站与开源软件 6  谈谈大型高负载网站服务器的优化心得! 8  Lighttpd+Squid+Apache搭建高效率Web服务器 9  浏览量比较大的网站应该从哪几个方面入手? 17  用负载均衡技术建设高负载站点 20  大型网站的架构设计问题 25  开源平台的高并发集群思考 26  大型、高负载网站架构和应用初探 时间:30-45分钟 27  说说大型高并发高负载网站的系统架构 28  mixi技术架构 51 mi
  3. 所属分类:Web服务器

    • 发布日期:2012-04-01
    • 文件大小:5242880
    • 提供者:orchid420
  1. 高性能高并发服务器架构

  2. 收集并整理的的高性能高并发服务器架构文章,内容预览:  初创网站与开源软件 6  谈谈大型高负载网站服务器的优化心得! 8  Lighttpd+Squid+Apache搭建高效率Web服务器 9  浏览量比较大的网站应该从哪几个方面入手? 17  用负载均衡技术建设高负载站点 20  大型网站的架构设计问题 25  开源平台的高并发集群思考 26  大型、高负载网站架构和应用初探 时间:30-45分钟 27  说说大型高并发高负载网站的系统架构 28  mixi技术架构 5
  3. 所属分类:群集服务

    • 发布日期:2015-01-12
    • 文件大小:5242880
    • 提供者:ygj781129
  1. 高性能高并发服务器架构.

  2. 整理的高性能高并发服务器架构文章,内容预览:  初创网站与开源软件 6  谈谈大型高负载网站服务器的优化心得! 8  Lighttpd+Squid+Apache搭建高效率Web服务器 9  浏览量比较大的网站应该从哪几个方面入手? 17  用负载均衡技术建设高负载站点 20  大型网站的架构设计问题 25  开源平台的高并发集群思考 26  大型、高负载网站架构和应用初探 时间:30-45分钟 27  说说大型高并发高负载网站的系统架构 28  mixi技术架构 51 mi
  3. 所属分类:Web开发

    • 发布日期:2015-06-04
    • 文件大小:5242880
    • 提供者:removefile
  1. MapReduce实例

  2. 使用MapReduce读取hbase数据库中千万级别的数据,处理数据并统计,将统计后的结果存入mysql
  3. 所属分类:物流

    • 发布日期:2016-04-18
    • 文件大小:7168
    • 提供者:scyxm0426
  1. DB2DB完美实现各种数据库表数据迁移

  2. DB2DB 是目前经过测试速度最快,最稳定实现多种数据库之间进行数据转换的工具。工具目前支持 SQL Server、MySQL、SQLite、Access 等数据库类型,通过该工具可以地把原来的系统,方便快速部署在不同的数据库甚至是云端数据库下。在大数据情况下(千万级别以上),处理速度比其它同类国内外软件要高出300%以上。并针对云端数据库中使用最多的 MySQL 数据库进行优化,使得从原数据库复制到新的数据库时保留更多的数据表属性设置。大大减少程序员、DBA、实施人员将大型数据库进行迁移时的
  3. 所属分类:其它

    • 发布日期:2017-06-02
    • 文件大小:6291456
    • 提供者:shb15212676056
  1. 非常棒的数据迁移工具,支持mysql,mssql

  2. 是目前经过测试速度最快、最稳定实现多种数据库之间进行数据转换的工具。支持 SQL Server、MySQL、SQLite、PostgresSQL、Access 等多种数据库类型,通过该工具可以把原来的系统,方便快速地部署在不同的数据库甚至是云端数据库下。在大数据情况下(千万级别以上),处理速度比国内外同类软件要高出300%以上。并针对云端数据库中使用最多的 MySQL 数据库进行优化,使得从源数据库复制到新数据库时保留更多的数据表属性设置。这样大大减少程序员、DBA、实施人员将大型数据库进行迁
  3. 所属分类:MySQL

    • 发布日期:2019-02-13
    • 文件大小:2097152
    • 提供者:shengtian
  1. 分布式业务层数据层框架Albianj2.zip

  2. Albianj2 Albianj是我们设计并开发的一套分布式统一框架。他主要是面向海量数据处理、海量数据 访问、并解决互联网开发中经常会碰到的数据海量增长问题,也一并解决 互联网开发团队 中,因开发人员的水平参差不齐而导致的代码质量不可控问题。它主要有简单小巧的IoC, ORM,数据路由,缓存集成,分布式唯一id等等功能。 albianj诞生于2011年,它的创建并不是为了解决某个公司的问题,而纯粹是为了度过我的 业余时间。当时的想法其实很简单,就是想把我这几年来对于互联网的理解用技术的形式
  3. 所属分类:其它

    • 发布日期:2019-07-19
    • 文件大小:990208
    • 提供者:weixin_39841856
  1. C#在MySQL大量数据下的高效读取、写入详解

  2. 最近由于工作的原因,经常需要对海量数据进行处理,做的数据爬虫相关,动辄千万级别的数据,单表几十个G 都是都是家常便饭。 那么主要的开发语言是C#,数据库使用的是MySQL。下面通过这篇文章我们来一起学习学习吧。
  3. 所属分类:其它

    • 发布日期:2020-09-01
    • 文件大小:74752
    • 提供者:weixin_38508821
  1. C#如何在海量数据下的高效读取写入MySQL

  2. 前提 由于工作的原因,经常需要对海量数据进行处理,做的数据爬虫相关,动辄千万级别的数据,单表几十个G都是都是家常便饭。  主要开发语言是C#,数据库使用的是MySQL。 最常见的操作便是 select 读取数据,然后在C#中对数据进行处理, 完毕后再插入数据库中。  简而言之就 select -> process -> insert三个步骤。 对于数据量小的情况下(百万级别 or 几百兆)可能最多1个小时就处理完了。但是对于千万级数据可能几天,甚至更多。 那么问题来了,如何优化?
  3. 所属分类:其它

    • 发布日期:2020-12-15
    • 文件大小:134144
    • 提供者:weixin_38673812
  1. Oracle的表空间、用户和用户授权

  2. 一:Oracle表空间   1,Oracle表空间与SQL Server文件组对比   SQL Server的文件组(文件组包括若干MDF,NDF数据文件)对我们来说并不陌生,前段时间我在博客“怎样玩转千万级别的数据”提到了过表分区的概念,其实表分区说到本质上是按一定条件把不同数据放在不同的数据文件里,这些数据文件在物理上是相对独立的,在逻辑上又是一个整体。特别强调一下,在SQL Server中,建表时是默认把所有的表都保存在PRIMARY默认文件组 ,当数据库中表很多,并且数据量很大时,会
  3. 所属分类:其它

    • 发布日期:2020-12-14
    • 文件大小:67584
    • 提供者:weixin_38565818
  1. C#在MySQL大量数据下的高效读取、写入详解

  2. 前言 C#操作MySQL大量数据最常见的操作便是 select 读取数据,然后在C#中对数据进行处理, 完毕后再插入数据库中。  简而言之就 select -> process -> insert 三个步骤。 对于数据量小的情况下(百万级别 or 几百兆)可能 最多1个小时就处理完了。但是对于千万级数据可能几天,甚至更多。 那么问题来了,如何优化?? 第一步 解决读取的问题 跟数据库打交道的方式有很多,我来列举下吧: 1. 【重武器-坦克大炮】使用重型ORM框架,比如 EF,NH
  3. 所属分类:其它

    • 发布日期:2020-12-26
    • 文件大小:77824
    • 提供者:weixin_38674616
  1. 盘点分库分表中,你一定要避开的那些坑!

  2. 例如:单表中出现了,动辄百万甚至千万级别的数据。“分表分库”就成为解决上述问题的有效工具。 今天和大家一起探讨:如何进行分表分库以及期间遇到的问题。 为什么会分表分库 数据库数据会随着业务的发展而不断增多,因此数据操作,如增删改查的开销也会越来越大。 再加上物理服务器的资源有限(CPU、磁盘、内存、IO 等)。最终数据库所能承载的数据量、数据处理能力都将遭遇瓶颈。 换句话说需要合理的数据库架构来存放不断增长的数据,这个就是分库分表的设计初衷。目的就是为了缓解数据库的压力,最大限度提高数据操作
  3. 所属分类:其它

    • 发布日期:2021-01-07
    • 文件大小:1048576
    • 提供者:weixin_38656064
  1. Java千万级别数据生成文件思路和优化

  2. 一年前写过一个百万级别数据库数据生成配置xml文件的程序,程序目的是用来把数据库里面的数据生成xml文件.程序可以配置多少文件生成到一个文件中去。程序刚开始设计的时候说的是最多百万级别数据,最多50W数据生成到一个xml文件里面去,所以在做测试的时候自己也只是造了100W的数据并没有做过多数据量的测试,然后问题就来了....由于程序使用的局点数据量巨大,需要生成xml文件的客户资料接近千万级别的程度,而现场对程序的配置大约是100W条数据生成一个xml文件里面去,程序在这样的大数据量下面偶尔会有
  3. 所属分类:其它

    • 发布日期:2021-01-31
    • 文件大小:82944
    • 提供者:weixin_38697274
  1. Java千万级别数据生成文件思路和优化

  2. 一年前写过一个百万级别数据库数据生成配置xml文件的程序,程序目的是用来把数据库里面的数据生成xml文件.程序可以配置多少文件生成到一个文件中去。程序刚开始设计的时候说的是最多百万级别数据,最多50W数据生成到一个xml文件里面去,所以在做测试的时候自己也只是造了100W的数据并没有做过多数据量的测试,然后问题就来了....由于程序使用的局点数据量巨大,需要生成xml文件的客户资料接近千万级别的程度,而现场对程序的配置大约是100W条数据生成一个xml文件里面去,程序在这样的大数据量下面偶尔会有
  3. 所属分类:其它

    • 发布日期:2021-01-31
    • 文件大小:82944
    • 提供者:weixin_38720402
  1. C#在MySQL海量数据下的高效读取、写入

  2. 前提   由于工作的原因,经常需要对海量数据进行处理,做的数据爬虫相关,动辄千万级别的数据,单表几十个G都是都是家常便饭。  主要开发语言是C#,数据库使用的是MySQL。   常见的操作便是 select 读取数据,然后在C#中对数据进行处理, 完毕后再插入数据库中。  简而言之 select -> process -> insert三个步骤。 对于数据量小的情况下(百万级别 or 几百兆)可能   多1个小时处理完了。但是对于千万级数据可能几天,甚至更多。 那么问题来了,如
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:73728
    • 提供者:weixin_38656989