您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. Nginx与Tomcat集群配置 Redis配置

  2. Nginx的编译与安装,包含了Nginx的http_comet模块,长连接和推送配置。 Nginx代理前端Tomcat后端负载均衡。 配置Redis数据数据库,并与Tomcat集成Session统一认证等。 包含了基本配置文档,以及相关的字段意思,方便各位下载以后,可以更改自己想要的参数。
  3. 所属分类:群集服务

    • 发布日期:2013-06-01
    • 文件大小:112640
    • 提供者:wangzi6hao
  1. 亿级流量网站架构核心技术-跟开涛学搭建高可用高并发系统(高清完整版)

  2. 第1部分 概述 / 1 1 交易型系统设计的一些原则 / 2 1.1 高并发原则 / 3 1.1.1 无状态 / 3 1.1.2 拆分 / 3 1.1.3 服务化 / 4 1.1.4 消息队列 / 4 1.1.5 数据异构 / 6 1.1.6 缓存银弹 / 7 1.1.7 并发化 / 9 1.2 高可用原则 / 10 1.2.1 降级 / 10 1.2.2 限流 / 11 1.2.3 切流量 / 12 1.2.4 可回滚 / 12 1.3 业务设计原则 / 12 1.3.1 防重设计 / 13
  3. 所属分类:Java

    • 发布日期:2017-10-13
    • 文件大小:183500800
    • 提供者:jsntghf
  1. 开涛高可用高并发-亿级流量核心技术

  2. 第1部分概述 1 1 交易型系统设计的一些原则 2 1.1 高并发原则 3 1.1.1 无状态 3 1.1.2 拆分 3 1.1.3 服务化 4 1.1.4 消息队列 4 1.1.5 数据异构 6 1.1.6 缓存银弹 7 1.1.7 并发化 9 1.2 高可用原则 10 1.2.1 降级 10 1.2.2 限流 11 1.2.3 切流量 12 1.2.4 可回滚 12 1.3 业务设计原则 12 1.3.1 防重设计 13 1.3.2 幂等设计 13 1.3.3 流程可定义 13 1.3.4
  3. 所属分类:Web开发

    • 发布日期:2018-03-22
    • 文件大小:157286400
    • 提供者:a123demi
  1. 亿级流量网站架构核心技术 跟开涛学搭建高可用高并发系统 ,张开涛(著) 高清

  2. 第1部分 概述 / 1 1 交易型系统设计的一些原则 / 2 1.1 高并发原则 / 3 1.1.1 无状态 / 3 1.1.2 拆分 / 3 1.1.3 服务化 / 4 1.1.4 消息队列 / 4 1.1.5 数据异构 / 6 1.1.6 缓存银弹 / 7 1.1.7 并发化 / 9 1.2 高可用原则 / 10 1.2.1 降级 / 10 1.2.2 限流 / 11 1.2.3 切流量 / 12 1.2.4 可回滚 / 12 1.3 业务设计原则 / 12 1.3.1 防重设计 / 13
  3. 所属分类:Web开发

    • 发布日期:2018-04-07
    • 文件大小:183500800
    • 提供者:kuigoutang2400
  1. DuckChat私有聊天系统(多客户端)

  2. DuckChat 是一个安全的私有聊天软件 私有部署 / 安全可靠 / 随意定制 低成本快速搭建 / 单机网站模式 / 超大集群模式[500+服务器] 1.0.7版本更新: 语音消息 群成员列表 小程序权限判断 表情符号消息支持 客户端支持(手机端可通往App store/Android市场下载): Android / iOS / PC 网页版 部署服务器支持: Linux / Windows / 虚拟空间 连接方式: HTTP轮询模式 / 长连接模式 DuckChat 通讯系统(开源IM系统
  3. 所属分类:其它

    • 发布日期:2018-09-29
    • 文件大小:2097152
    • 提供者:qq_36877577
  1. 服务器端nginx配置文件

  2. #user nobody; worker_processes 1; #error_log logs/error.log; #error_log logs/error.log notice; #error_log logs/error.log info; #pid logs/nginx.pid; events { worker_connections 1024; } http { include mime.types; default_type application/octet-stream;
  3. 所属分类:群集服务

    • 发布日期:2019-08-22
    • 文件大小:17408
    • 提供者:zkd953
  1. gowebsocket:golang基于websocket单台机器支持百万连接分布式聊天(IM)系统-源码

  2. 基于websocket单台机器支持百万连接分布式聊天(IM)系统 本文将介绍如何实现一个基于websocket分布式聊天(IM)系统。 使用golang实现websocket通讯,单机可以支持百万连接,使用gin框架,nginx负载,可以水平部署,程序内部相互通讯,使用grpc通讯协议。 本文内容比较长,如果直接想克隆项目体验直接进入,文本从介绍webSocket是什么开始,然后开始介绍这个项目,以及在Nginx中配置域名做webSocket的转发,然后介绍如何构建一个分布式系统。 目录 1,项
  3. 所属分类:其它

    • 发布日期:2021-03-11
    • 文件大小:72704
    • 提供者:weixin_42170064
  1. nginx 异常长连接快速断开-附件资源

  2. nginx 异常长连接快速断开-附件资源
  3. 所属分类:互联网

  1. nginx 异常长连接快速断开-附件资源

  2. nginx 异常长连接快速断开-附件资源
  3. 所属分类:互联网

  1. nginx 异常长连接快速断开-附件资源

  2. nginx 异常长连接快速断开-附件资源
  3. 所属分类:互联网

  1. nginx 异常长连接快速断开-附件资源

  2. nginx 异常长连接快速断开-附件资源
  3. 所属分类:互联网

  1. 58集团面向亿级用户IM长连接服务设计与实践

  2. 微聊,是58一款聊天工具,目前已经接入58的大部分产品。及时准确数据传输,是对一款聊天工具最基本的要求。长连接服务就是在客户端到服务端之间建立一条全双工的数据通路,实现客户端和服务之间逻辑收发数据,在线离线等功能。长连接服务在整个微聊系统中,位于客户端与后台逻辑之间;整个后台服务最重要的直接对外接口之一(另一个是短连接请求的nginx);长连接服务对外和对内的均采用tcp连接。长连接服务主要功能是收发数据,保持在线,使用的系统资源主要包括:CPU,内存,网卡;当连接非常活跃的时候,大量数据接收与
  3. 所属分类:其它

    • 发布日期:2021-02-24
    • 文件大小:465920
    • 提供者:weixin_38712874
  1. 58集团面向亿级用户IM长连接服务设计与实践

  2. 微聊,是58一款聊天工具,目前已经接入58的大部分产品。及时准确数据传输,是对一款聊天工具最基本的要求。长连接服务就是在客户端到服务端之间建立一条全双工的数据通路,实现客户端和服务之间逻辑收发数据,在线离线等功能。 长连接服务在整个微聊系统中,位于客户端与后台逻辑之间;整个后台服务最重要的直接对外接口之一(另一个是短连接请求的nginx);长连接服务对外和对内的均采用tcp连接。 长连接服务主要功能是收发
  3. 所属分类:其它

    • 发布日期:2021-01-27
    • 文件大小:465920
    • 提供者:weixin_38654855
  1. nginx keepalive的具体使用

  2. 默认http1.1协议的请求头是默认开启keepalive,如图: 那什么是keepalive?作用是什么? keepalive是在TCP中一个可以检测死连接的机制,作用是保持socket长连接不被断开,属于tcp层的功能,并不属于应用层。 TCP层怎么做到保持长连接的呢? 先看keepalive的用法:有三个参数,开放给应用层使用 sk->keepalive_probes:探测次数,重试次数 sk->keepalive_time 探测的心跳间隔,TCP链接在多少秒之后没有数据报
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:229376
    • 提供者:weixin_38672739
  1. Nginx反向代理实现支持长连接详解

  2. 前言 Nginx upstream与后端的连接默认为短连接,通过HTTP/1.0向后端发起连接,并把请求的”Connection” header设为”close”。Nginx与前端的连接默认为长连接,一个用户跟Nginx建立连接之后,通过这个长连接发送多个请求。如果Nginx只是作为reverse proxy的话,可能一个用户连接就需要多个向后端的短连接。如果后端的服务器(源站或是缓存服务器)处理并发连接能力不强的话,就可能导致瓶颈的出现。 Nginx目前的upstream连接建立和获取的机制
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:159744
    • 提供者:weixin_38728624
  1. 详解nginx代理socket.io服务踩坑

  2. nginx代理了两台socket.io服务器。socket.io的工作模式是polling升级到websocket 现象 通过nginx请求服务时,出现了大量的400错误,有时候能升级到websocket,有时候会一直报错。但是直接通过 ip+端口 访问时,100%能成功。 分析 sid sid是我们这个问题的关键。在初始创建连接时(polling模式就是在模拟一个长连接),客户端会发起这样的请求: https://***/?EIO=3&transport=polling&t=15408207
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:89088
    • 提供者:weixin_38702417
  1. Nginx 连接tomcat时会话粘性问题分析及解决方法

  2. 在多台后台服务器的环境下,我们为了确保一个客户只和一台服务器通信,我们势必使用长连接。使用什么方式来实现这种连接呢,常见的有使用nginx自带的ip_hash来做,我想这绝对不是一个好的办法,如果前端是CDN,或者说一个局域网的客户同时访问服务器,导致出现服务器分配不均衡,以及不能保证每次访问都粘滞在同一台服务器。如果基于cookie会是一种什么情形,想想看, 每台电脑都会有不同的cookie,在保持长连接的同时还保证了服务器的压力均衡。 问题分析: 1. 一开始请求过来,没有带session信
  3. 所属分类:其它

    • 发布日期:2021-01-11
    • 文件大小:74752
    • 提供者:weixin_38683930
  1. Nginx开启一个参数就能让你的WEB性能提升3倍的方法

  2. 一、遇到的一些问题 记得 2008 年做性能测试的时候,新进7台 lenovo 4核4G 服务器用于性能测试。 当时资源紧张,这7台服务器都装了双系统(Win2003/CentOS5)空闲时用于做测试机(压测的Agent)。 当时给Nginx做了一系列测试,印象很深的是:在这批机器上,Nginx状态页面的压测。 短连接的话最佳QPS约4万,长连接的话最高QPS约13万。 大概3年后,那批 lenovo 服务器已经没人瞧得上了,只能做肉鸡。 然而,一次不经意的测试,发现再牛的服务器,短连接最佳QP
  3. 所属分类:其它

    • 发布日期:2021-01-10
    • 文件大小:498688
    • 提供者:weixin_38584642
  1. Nginx负载均衡

  2. 在nginx中负载均衡主要实现用户访问请求进行调度分配和后端服务器的压力分担。 负载均衡调度算法 轮询(rr) :按时间顺序逐一分配到不同的后端服务器(默认) 权重(weight):加权轮询(wrr)。weight值越大,分配到的访问率越高。 源IP地址hash调度方法(ip_hash):将每个请求按访问IP的hash值来分配,来自同一个IP固定访问一个后端服务器 最少连接数(least_conn):当server拥有不同的权重时为wlc,当所有后端主机;连接数相同时,则使用wrr,适用于长连接
  3. 所属分类:其它

    • 发布日期:2021-01-09
    • 文件大小:272384
    • 提供者:weixin_38502722
  1. nginx反向代理时如何保持长连接

  2. ·【场景描述】 HTTP1.1之后,HTTP协议支持持久连接,也就是长连接,优点在于在一个TCP连接上可以传送多个HTTP请求和响应,减少了建立和关闭连接的消耗和延迟。 如果我们使用了nginx去作为反向代理或者负载均衡,从客户端过来的长连接请求就会被转换成短连接发送给服务器端。 为了支持长连接,我们需要在nginx服务器上做一些配置。 ·【要求】 使用nginx时,想要做到长连接,我们必须做到以下两点: 从client到nginx是长连接 从nginx到server是长连接 对于客户端
  3. 所属分类:其它

    • 发布日期:2021-01-09
    • 文件大小:88064
    • 提供者:weixin_38731027
« 12 »