您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. 海量数据的优化经验与技巧

  2. 海量数据的优化方案与技巧,如何实现快速地从这些超大容量的数据库中提取数据(查询)、分析、统计以及提取数据后进行数据分页
  3. 所属分类:专业指导

    • 发布日期:2009-10-27
    • 文件大小:142336
    • 提供者:gdzhangyuefeng
  1. mysql 千万级数据优化

  2. 介绍一下海量数据库sql 优化,及书写sql 应该注意的事项。
  3. 所属分类:MySQL

    • 发布日期:2011-05-05
    • 文件大小:26624
    • 提供者:chanyoujava
  1. 千万级数据分页操作方法

  2. 数据库优化操作实现数据分页,数据量在千万级分页效果依然很流畅,该文件已经在实际项目中应用,并且效果很不错的!
  3. 所属分类:Web开发

    • 发布日期:2011-06-09
    • 文件大小:21504
    • 提供者:jfm98
  1. 七台河信息网www.qth8.com程序v6.0

  2. QTH8分类信息系统6.0(伪静态版)升级报告: 1、VIP商家主页可以通过目录访问。 2、信息和评论可以设置是否审核后显示。 3、解决了分类信息版块分类过多换行不齐的问题。 4、修改了部分空间发布信息后白页问题。 5、增加了发布信息的预览功能 6、增加了内页友情链接。 7、优化内页链接 8、头部文件模板化,无需每次升级程序都修改头部文件,模板目录(/tempate/top.html) 9、可在后台设置控制上传图片大小 10、优化内核,数据读取更快,千万级数据量无压力。 11、后台全面优化,使
  3. 所属分类:C#

    • 发布日期:2011-12-16
    • 文件大小:2097152
    • 提供者:adxin
  1. cpweb企业网站管理系统 v1.1 PHP.rar

  2. CPWEB企业网站管理系统(以下称CPWEB)是一个基于PHP Mysql架构的企业网站管理系统。CPWEB 采用模块化方式开发,功能强大灵活易于扩展,并且完全开放源代码,面向大中型站点提供重量级企业网站建设解决方案。主要功能:单页、文章、产品、公告、留言、招聘、友情连接、订单等。主要特性:1、模块化,开源,可扩展CPWEB 采用模块化方式开发,并且完全开源,便于二次开发。2、功能强大灵活CPWEB 由内容模型、会员模型、订单等10多个功能模块组成,并且内置单页、文章和产品3大常用模型可以不用
  3. 所属分类:其它

    • 发布日期:2019-07-09
    • 文件大小:1048576
    • 提供者:weixin_39840588
  1. Sail!企业网站管理系统简体中文版 v1.1.zip

  2. Sail!企业网站管理系统主要模块介绍: 1、单页模块:发布介绍企业的各类信息,如企业简介、组织机构、联系方式。 2、文章模块:发布企业新闻和相关文章,可设置图片文章。特有首页推荐和栏目置顶功能。 3、产品模块:可设置产品参数,如产品型号、尺寸等等,支持新品展示和推荐产品,可自动生成产品缩略图。 Sail V1.0 产品介绍: Sail企业网站管理系统(以下称Sail)是一个基于PHP Mysql架构的企业网站管理系统。Sail 采用模块化方式开发,功能强大灵活易于扩展,并且完全开放源代码,面
  3. 所属分类:其它

    • 发布日期:2019-07-10
    • 文件大小:1048576
    • 提供者:weixin_39840914
  1. 易贝内容管理系统EBCMS 媒体版 v6.4.7

  2. EBCMS是基于ThinkPHP开发的一套内容管理系统。Ebcms易贝内容管理系统v5是一个全新的版本,完美支持php7,模块化开发,效率高,操作简单,精确到文章级的字段扩展机制,完全可自定义的优秀路由设计,meta标题 短标题 标签 等等强化seo,优秀的缓存机制,即使千万级数据量,也能快速打开。系统优势:千万级数据量超强seo优化完全可自定义的灵活URL路由优秀的字段扩展机制后台管理方便系统要求:php版本 不低于5.4推荐配置: php7 + nginxEbcms易贝内容管理系统 更新日
  3. 所属分类:其它

    • 发布日期:2019-10-23
    • 文件大小:6291456
    • 提供者:weixin_38743481
  1. 乐兔淘购物分享系统(淘宝客导购) v2.9

  2. 乐兔淘购物分享系统是一款基于PHP+MYSQL技术架构的购物分享社区系统,经过2年精心研发与升级,现可以为大中型网站以及个人站长提供分享购物社区系统的解决方案,并得到一致好评。乐兔淘购物分享系统它综合当下热门流行的Pinterest类购物分享模式开发的一款非常易用的购物分享社区系统。乐兔淘购物分享系统可用于建设淘宝客网站、社会化电子商务网站、商品展示网站、淘宝店铺推广网站、兴趣类或话题类网站。他的最大特点是可直接通过淘宝商品链接一键分享商品和强大的后台一键采集商品功能,可轻松获取想要展示或要分
  3. 所属分类:其它

    • 发布日期:2019-10-24
    • 文件大小:28311552
    • 提供者:weixin_38743481
  1. 数据库 SQL千万级数据规模处理概要

  2. 我在前年遇到过过亿条的数据。以至于一个处理过程要几个小时的。后面慢慢优化,查找一些经验文章。才学到了一些基本方法。综合叙之,与君探讨之。
  3. 所属分类:其它

    • 发布日期:2020-09-11
    • 文件大小:94208
    • 提供者:weixin_38598745
  1. mysql千万级数据大表该如何优化?

  2. 如何设计或优化千万级别的大表?此外无其他信息,个人觉得这个话题有点范,就只好简单说下该如何做,对于一个存储设计,必须考虑业务特点,收集的信息如下
  3. 所属分类:其它

    • 发布日期:2020-09-11
    • 文件大小:51200
    • 提供者:weixin_38726441
  1. mysql千万级数据分页查询性能优化

  2. 本文给大家分享的是作者在使用mysql进行千万级数据量分页查询的时候进行性能优化的方法,非常不错的一篇文章,对我们学习mysql性能优化非常有帮助
  3. 所属分类:其它

    • 发布日期:2020-09-09
    • 文件大小:48128
    • 提供者:weixin_38716081
  1. C#如何在海量数据下的高效读取写入MySQL

  2. 前提 由于工作的原因,经常需要对海量数据进行处理,做的数据爬虫相关,动辄千万级别的数据,单表几十个G都是都是家常便饭。  主要开发语言是C#,数据库使用的是MySQL。 最常见的操作便是 select 读取数据,然后在C#中对数据进行处理, 完毕后再插入数据库中。  简而言之就 select -> process -> insert三个步骤。 对于数据量小的情况下(百万级别 or 几百兆)可能最多1个小时就处理完了。但是对于千万级数据可能几天,甚至更多。 那么问题来了,如何优化?
  3. 所属分类:其它

    • 发布日期:2020-12-15
    • 文件大小:134144
    • 提供者:weixin_38673812
  1. mysql千万级数据大表该如何优化?

  2. 1.数据的容量:1-3年内会大概多少条数据,每条数据大概多少字节; 2.数据项:是否有大字段,那些字段的值是否经常被更新; 3.数据查询SQL条件:哪些数据项的列名称经常出现在WHERE、GROUP BY、ORDER BY子句中等; 4.数据更新类SQL条件:有多少列经常出现UPDATE或DELETE 的WHERE子句中; 5.SQL量的统计比,如:SELECT:UPDATE+DELETE:INSERT=多少? 6.预计大表及相关联的SQL,每天总的执行量在何数量级? 7.表中的数据:更新为主的
  3. 所属分类:其它

    • 发布日期:2020-12-15
    • 文件大小:55296
    • 提供者:weixin_38514805
  1. mysql中向表中某字段追加字符串的方法

  2. Update `表名` SET title = CONCAT(title,’MV’) where articleid=3487 and title not like ‘%v’   您可能感兴趣的文章:mysql千万级数据大表该如何优化?MySQL大表中重复字段的高效率查询方法MySQL 删除大表的性能问题解决方案MYSQL数据库中的现有表增加新字段(列)MySQL命令行中给表添加一个字段(字段名、是否为空、默认值)MySql创建带解释的表及给表和字
  3. 所属分类:其它

    • 发布日期:2020-12-15
    • 文件大小:31744
    • 提供者:weixin_38658471
  1. 千万级数据量系统优化实践

  2. 注:文中的“Doctor”是精分对话者,另一个我,道德约束者,话唠,请无视他。 博主最近在做公司一个很重要的项目,有关于汽车物联网金融的,作为刚工作一年的新人来说,这是一个极好的学习机会,而且被信任的感觉很好啊有木有。简单说博主在为某实力国产汽车公司卖命,这个系统涉及到的用户有几百万,每个用户都会有很多的金融数据,金融总是要结算的,所以每个月到结算日会有千万条数据需要操作,累计有几十亿次的计算,那么面对这庞大的数据集,我是瑟瑟发抖的,之前对于优化只是建立在理论上的,这次虽然是好的实践机会,但是作
  3. 所属分类:其它

    • 发布日期:2020-12-14
    • 文件大小:164864
    • 提供者:weixin_38747444
  1. C#在MySQL大量数据下的高效读取、写入详解

  2. 前言 C#操作MySQL大量数据最常见的操作便是 select 读取数据,然后在C#中对数据进行处理, 完毕后再插入数据库中。  简而言之就 select -> process -> insert 三个步骤。 对于数据量小的情况下(百万级别 or 几百兆)可能 最多1个小时就处理完了。但是对于千万级数据可能几天,甚至更多。 那么问题来了,如何优化?? 第一步 解决读取的问题 跟数据库打交道的方式有很多,我来列举下吧: 1. 【重武器-坦克大炮】使用重型ORM框架,比如 EF,NH
  3. 所属分类:其它

    • 发布日期:2020-12-26
    • 文件大小:77824
    • 提供者:weixin_38674616
  1. C#在MySQL海量数据下的高效读取、写入

  2. 前提   由于工作的原因,经常需要对海量数据进行处理,做的数据爬虫相关,动辄千万级别的数据,单表几十个G都是都是家常便饭。  主要开发语言是C#,数据库使用的是MySQL。   常见的操作便是 select 读取数据,然后在C#中对数据进行处理, 完毕后再插入数据库中。  简而言之 select -> process -> insert三个步骤。 对于数据量小的情况下(百万级别 or 几百兆)可能   多1个小时处理完了。但是对于千万级数据可能几天,甚至更多。 那么问题来了,如
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:73728
    • 提供者:weixin_38656989
  1. pgsql查询优化之模糊查询实例详解

  2. 前言 一直以来,对于搜索时模糊匹配的优化一直是个让人头疼的问题,好在强大pgsql提供了优化方案,下面就来简单谈一谈如何通过索引来优化模糊匹配 案例 我们有一张千万级数据的检查报告表,需要通过检查报告来模糊搜索某个条件,我们先创建如下索引: CREATE INDEX lab_report_report_name_index ON lab_report USING btree (report_name); 然后搜个简单的模糊匹配条件如 LIKE “血常规%”,可以发现查询计划生成如下,索引并没有
  3. 所属分类:其它

    • 发布日期:2021-01-19
    • 文件大小:105472
    • 提供者:weixin_38575118
  1. mysql千万级数据分页查询性能优化

  2. mysql数据量大时使用limit分页,随着页码的增大,查询效率越低下。 实验 1.直接使用用limit start, count分页语句: select * from order limit start, count 当起始页较小时,查询没有性能问题,我们分别看下从10, 100, 1000, 10000开始分页的执行时间(每页取20条), 如下: select * from order limit 10, 20 0.016秒 select * from order limit 100, 2
  3. 所属分类:其它

    • 发布日期:2021-01-19
    • 文件大小:53248
    • 提供者:weixin_38672840
  1. 实战:上亿数据如何秒查

  2. 近在忙着优化集团公司的一个报表。优化完成后,报表查询速度有从半小时以上(甚至查不出)到秒查的质变。从修改SQL查询语句逻辑到决定创建存储过程实现,花了我3天多的时间,在此总结一下,希望对朋友们有帮助。   数据背景   首先项目是西门子中国在我司实施部署的MES项目,由于项目是在产线上运作(3 years+),数据累积很大。在项目的数据库中,大概上亿条数据的表有5个以上,千万级数据的表10个以上,百万级数据的表,很多…   (历史问题,当初实施无人监管,无人监控数据库这块的性能问题。ps:
  3. 所属分类:其它

    • 发布日期:2021-01-19
    • 文件大小:135168
    • 提供者:weixin_38730389
« 12 »