您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. 高性能高并发服务器架构案例分析与总结

  2.  初创网站与开源软件 6  谈谈大型高负载网站服务器的优化心得! 8  Lighttpd+Squid+Apache搭建高效率Web服务器 9  浏览量比较大的网站应该从哪几个方面入手? 17  用负载均衡技术建设高负载站点 20  大型网站的架构设计问题 25  开源平台的高并发集群思考 26  大型、高负载网站架构和应用初探 时间:30-45分钟 27  说说大型高并发高负载网站的系统架构 28  mixi技术架构 51 mixi.jp:使用开源软件搭建的可扩展SNS网站
  3. 所属分类:Web开发

    • 发布日期:2010-11-12
    • 文件大小:5242880
    • 提供者:OnJava
  1. 高性能高并发服务器架构大全

  2. 整理的高性能高并发服务器架构文章,内容预览:  初创网站与开源软件 6  谈谈大型高负载网站服务器的优化心得! 8  Lighttpd+Squid+Apache搭建高效率Web服务器 9  浏览量比较大的网站应该从哪几个方面入手? 17  用负载均衡技术建设高负载站点 20  大型网站的架构设计问题 25  开源平台的高并发集群思考 26  大型、高负载网站架构和应用初探 时间:30-45分钟 27  说说大型高并发高负载网站的系统架构 28  mixi技术架构 51 mi
  3. 所属分类:Web服务器

    • 发布日期:2012-04-01
    • 文件大小:5242880
    • 提供者:orchid420
  1. 高性能高并发服务器架构

  2. 收集并整理的的高性能高并发服务器架构文章,内容预览:  初创网站与开源软件 6  谈谈大型高负载网站服务器的优化心得! 8  Lighttpd+Squid+Apache搭建高效率Web服务器 9  浏览量比较大的网站应该从哪几个方面入手? 17  用负载均衡技术建设高负载站点 20  大型网站的架构设计问题 25  开源平台的高并发集群思考 26  大型、高负载网站架构和应用初探 时间:30-45分钟 27  说说大型高并发高负载网站的系统架构 28  mixi技术架构 5
  3. 所属分类:群集服务

    • 发布日期:2015-01-12
    • 文件大小:5242880
    • 提供者:ygj781129
  1. 高性能高并发服务器架构.

  2. 整理的高性能高并发服务器架构文章,内容预览:  初创网站与开源软件 6  谈谈大型高负载网站服务器的优化心得! 8  Lighttpd+Squid+Apache搭建高效率Web服务器 9  浏览量比较大的网站应该从哪几个方面入手? 17  用负载均衡技术建设高负载站点 20  大型网站的架构设计问题 25  开源平台的高并发集群思考 26  大型、高负载网站架构和应用初探 时间:30-45分钟 27  说说大型高并发高负载网站的系统架构 28  mixi技术架构 51 mi
  3. 所属分类:Web开发

    • 发布日期:2015-06-04
    • 文件大小:5242880
    • 提供者:removefile
  1. DB2DB完美实现各种数据库表数据迁移

  2. DB2DB 是目前经过测试速度最快,最稳定实现多种数据库之间进行数据转换的工具。工具目前支持 SQL Server、MySQL、SQLite、Access 等数据库类型,通过该工具可以地把原来的系统,方便快速部署在不同的数据库甚至是云端数据库下。在大数据情况下(千万级别以上),处理速度比其它同类国内外软件要高出300%以上。并针对云端数据库中使用最多的 MySQL 数据库进行优化,使得从原数据库复制到新的数据库时保留更多的数据表属性设置。大大减少程序员、DBA、实施人员将大型数据库进行迁移时的
  3. 所属分类:其它

    • 发布日期:2017-06-02
    • 文件大小:6291456
    • 提供者:shb15212676056
  1. 非常棒的数据迁移工具,支持mysql,mssql

  2. 是目前经过测试速度最快、最稳定实现多种数据库之间进行数据转换的工具。支持 SQL Server、MySQL、SQLite、PostgresSQL、Access 等多种数据库类型,通过该工具可以把原来的系统,方便快速地部署在不同的数据库甚至是云端数据库下。在大数据情况下(千万级别以上),处理速度比国内外同类软件要高出300%以上。并针对云端数据库中使用最多的 MySQL 数据库进行优化,使得从源数据库复制到新数据库时保留更多的数据表属性设置。这样大大减少程序员、DBA、实施人员将大型数据库进行迁
  3. 所属分类:MySQL

    • 发布日期:2019-02-13
    • 文件大小:2097152
    • 提供者:shengtian
  1. B2B网站管理系统(Destoon) v6.0 GBK.zip

  2. Destoon B2B网站管理系统是一套完善的B2B(电子商务)行业门户解决方案。系统基于PHP MySQL开发,采用B/S架构,模板与程序分离,源码开放。模型化的开发思路,可扩展或删除任何功能;创新的缓存技术与数据库设计,可负载千万级别数据容量及访问。 系统特性 1、跨平台。支持Linux/Unix/Windows服务器,支持Apache/IIS/Zeus等 2、跨浏览器。基于最新Web标准构建,在各主流浏览器(IE/FireFox/Opera等)上运行良好 已发布模型: 会员、供应、求购、
  3. 所属分类:其它

    • 发布日期:2019-07-09
    • 文件大小:11534336
    • 提供者:weixin_39841848
  1. B2B网站管理系统(Destoon) v6.0 UTF8.zip

  2. Destoon B2B网站管理系统是一套完善的B2B(电子商务)行业门户解决方案,此版本为UTF8,系统基于PHP MySQL开发,采用B/S架构,模板与程序分离,源码开放。模型化的开发思路,可扩展或删除任何功能;创新的缓存技术与数据库设计,可负载千万级别数据容量及访问。 系统特性 1、跨平台。支持Linux/Unix/Windows服务器,支持Apache/IIS/Zeus等 2、跨浏览器。基于最新Web标准构建,在各主流浏览器(IE/FireFox/Opera等)上运行良好 已发布模型:
  3. 所属分类:其它

    • 发布日期:2019-07-09
    • 文件大小:12582912
    • 提供者:weixin_39841365
  1. C#如何在海量数据下的高效读取写入MySQL

  2. 前提 由于工作的原因,经常需要对海量数据进行处理,做的数据爬虫相关,动辄千万级别的数据,单表几十个G都是都是家常便饭。  主要开发语言是C#,数据库使用的是MySQL。 最常见的操作便是 select 读取数据,然后在C#中对数据进行处理, 完毕后再插入数据库中。  简而言之就 select -> process -> insert三个步骤。 对于数据量小的情况下(百万级别 or 几百兆)可能最多1个小时就处理完了。但是对于千万级数据可能几天,甚至更多。 那么问题来了,如何优化?
  3. 所属分类:其它

    • 发布日期:2020-12-15
    • 文件大小:134144
    • 提供者:weixin_38673812
  1. mysql sharding(碎片)介绍

  2. 1、Sharding 的应用场景一般都那些? 当数据库中的数据量越来越大时,不论是读还是写,压力都会变得越来越大。试想,如果一张表中的数据量达到了千万甚至上亿级别的时候,不管是建索引,优化缓存等,都会面临巨大的性能压力。sharding通过某种条件,把同一个数据库中的数据分散到多个数据库或多台机器上,以减小单台机器压力。 联机游戏、IM、BSP 都是比较适合 Sharding 的应用场景; 2、Sharding与数据库分区(Partition)的区别? sharding实现了数据的分布式部署,将
  3. 所属分类:其它

    • 发布日期:2020-12-15
    • 文件大小:58368
    • 提供者:weixin_38684633
  1. Mysql千万级别水平分表优化

  2. 需求:随着数据量的增加单表已经不能很好的支持业务,千万级别数据查询缓慢 Mysql数据优化方案: 方案一:使用myisam进行水平分表优化 方案二:使用mysql分区优化 一:Myisam水平分区 1、创建水平分表 user_1: -- 创建水平分表 create table user_1( id varchar(50) PRIMARY key COMMENT '主键id', user_name varchar(50) DEFAULT null COMMENT '用户名称', cre
  3. 所属分类:其它

    • 发布日期:2020-12-14
    • 文件大小:73728
    • 提供者:weixin_38692707
  1. MySQL 开发规范【X千万/表级别】

  2. 目录 一、MySQL 开发规范概述 二、MySQL 开发规范手册【设计原则】 三、MySQL 开发规范手册【字段设计】 四、MySQL 开发规范手册【 索引使用】 五、MySQL 开发规范手册【查询条件】 六、MySQL 开发规范手册【 存储过程】 七、MySQL 开发规范手册【 远程表】 八、MySQL 开发规范手册【性能优化】 九、MySQL 开发规范手册【 引擎使用】 十 、MySQL 开发规范手册【权限控制】 一、MySQL 开发规范概述 原则:SQL开发规范制定是基于良好的编码习惯和
  3. 所属分类:其它

    • 发布日期:2020-12-14
    • 文件大小:162816
    • 提供者:weixin_38557727
  1. C#在MySQL海量数据下的高效读取、写入

  2. 前提   由于工作的原因,经常需要对海量数据进行处理,做的数据爬虫相关,动辄千万级别的数据,单表几十个G都是都是家常便饭。  主要开发语言是C#,数据库使用的是MySQL。   常见的操作便是 select 读取数据,然后在C#中对数据进行处理, 完毕后再插入数据库中。  简而言之 select -> process -> insert三个步骤。 对于数据量小的情况下(百万级别 or 几百兆)可能   多1个小时处理完了。但是对于千万级数据可能几天,甚至更多。 那么问题来了,如
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:73728
    • 提供者:weixin_38656989
  1. 千万级别数据的mysql数据表优化

  2. 出发点   比如,现在有这么一个问题,常见的一个面试题:   有一张users表,数据量在五千万以上,存在一条查询语句:   SELECT * FROM users WHERE name LIKE '%明%' AND sex='\u7537' AND age=32 AND created_at BETWEEN 1388505600 AND 1420041600;   是说从users表中找出创建时间在14年到15年之间的年龄在32岁,名字中带有‘明’字的男性用户   追溯到数据表的设计
  3. 所属分类:其它

    • 发布日期:2021-01-19
    • 文件大小:92160
    • 提供者:weixin_38665822
  1. MySQL 快速删除大量数据(千万级别)的几种实践方案详解

  2. 笔者最近工作中遇见一个性能瓶颈问题,MySQL表,每天大概新增776万条记录,存储周期为7天,超过7天的数据需要在新增记录前老化。连续运行9天以后,删除一天的数据大概需要3个半小时(环境:128G, 32核,4T硬盘),而这是不能接受的。当然如果要整个表删除,毋庸置疑用 TRUNCATE TABLE就好。 最初的方案(因为未预料到删除会如此慢),代码如下(最简单和朴素的方法): delete from table_name where cnt_date <= target_date 后
  3. 所属分类:其它

    • 发布日期:2021-01-19
    • 文件大小:210944
    • 提供者:weixin_38748556