背景
疫情初期某地政府决定发放一批免费口罩面向该市市民,该市市民均可免费预约领取,预约时间为早上9点-12点,因此该场景为限时抢购类型场景,会面临非常大的定时超大流量超大并发问题,在该项目的落地过程中,涉及的架构演变,做了一些记录和思考。
架构图&分析-V1
原始架构图示&分析(2月2号晚上22点左右的原始架构)
2月2号晚上22点左右的原始架构
- 客户端走 HTTPS 协议直接访问 ECS;
- ECS 上使用 Nginx 监听 HTTPS 443 端口;
- Nginx 反代 Tomcat,Nginx 处理静态文件,Tomcat 处理动态请求;
- 程序先去 Redis 查缓存,如未命中则去数据库查询数据,同时Redis 与 Mysql 之间的数据同步靠程序控制。
这样架构设计:
- 优点:易管理,易部署;
- 缺点:性能差,无扩展性,存在单点风险;
结果:事实证明该应用一经上线就立刻被打挂了,因未知原因预约页面被泄露,导致还未到预约时间,服务即被打挂。
架构图&分析-V2
随后我方介入,进行架构调整,24点左右找的我们,早上9点要开服,时间太紧,任务太重,程序不能动的情况下,几十万的并发架构如何做?
2月3号早上9点左右的架构,4号也恢复了这个架构)
2月3号早上9点左右的架构
- 接入 SLB,通过镜像横向扩展负载能力;
- 接入读写分离数据库架构,通过阿里云数据库自动进行读写分离,自动同步数据;
- 调整 Nginx 协议;
- 同架构备集群启用(域名解析做了两个A记录);
- 分析访问日志发现失败原因在获取短信和登陆初始化 Cookie 的点上。
这样架构设计:
- 优点:增加了高可用性,扩展了负载能力;
- 缺点:对流量预估不足,静态页面也在 ECS 上,因此 SLB 的出带宽一度达到最大值 5.X G,并发高达 22w 。
结果:因为流量太大导致用户一度打不开页面,同时由于域名服务商 XX 的限制,客户无法自助添加解析,且当晚联系不到域名服务商客服,导致 CDN 方案搁浅。
架构图&分析-V3
2月5号的架构
- 接入 CDN 分流超大带宽;
- 取消 Nginx 的代理;
- 做了新程序无法准时上线的灾备切换方案(没想到还真用到了);
- 使用虚拟服务器组做新老程序的切换,但是缺点是一个七层监听的 SLB 后端只能挂 200 个机器,再多 SLB 也扛不住了,导致老程序刚承接的时候再度挂掉;
- 5 号使用这个架构上线,7 分钟库存售罄,且体验极度流程,丝般顺滑,健康同学开发的新程序真是太爽的。
这样架构设计:
- 优点:CDN 负担静态资源的流量降低了 SLB 的出带宽,压测的效果也非常理想;
- 缺点:需要多一个独立的域名在页面里面,涉及跨域,4 号临开服之际测试发现入库&预约短信乱码返回,紧急切换回了老程序,即二代架构。
理想架构图&分析-V4
理想架构
- 主域名接入CDN;
- CDN通过设置回源 Http、Https 协议去访问 SLB 的不同监听实现新老程序之间的切换,具体实现为回源协议对应。不同监听,监听对应不同的程序。
这样架构设计:
- 优点:静态加速降低SLB带宽,动态回源,无跨域问题,切换方便;
- 缺点:仍需手工设置,镜像部署ecs不方便,如果时间充足,可以直接上容器的架构该有多美好呢,一个 scale 可以扩出来几十上百的 pod,也可以做节点自动扩容。
总结
时间紧任务重,遇到了N多的坑:
- vcpu 购买额度;
- SLB 后端挂载额度;
- 客户余额不足欠费停机;
- 域名服务商解析需要联系客服才能添加;
- 第一次考虑 CDN 架构的时候未考虑跨域问题;
- 新程序开发期间未连接主库测试,导致上线失败(主库乱码);
- 第一次(3号)被打挂的时候只关注了 SLB 的流量,未详细分析失败最多的环节;
- 上线前压测缺失,纯靠人工测试功能;
- 压测靠人手一台 Jmeter(4号晚上到5号早上引入了 PTS 进行压测);
- 突然想起来客户原始的程序是放在 Windows上的,
Windows 烂程序
性能真的极差; - 这个“小项目”前后竟然耗费了小十万,如果一开始就给我们做的话,应该可以减少一半的成本。
最后的成果统计(采样分析,实际数据比这个还大):
成果统计(采样分析)
最后上线的三代架构,为了保险起见上了 150 台机器,但是根据活动期间的观察,以及对压测结果的评估,上 50 台机器应该就可以抗住了,从持续 5 小时一直崩溃被终端用户骂街,到 7 分钟库存售罄的领导赞赏,虽然经历了 3 个通宵的戮战,依然可以隐隐约约感觉到身心都得到了升华。
各种优化笔记
参数优化
- 网络调参
net.ipv4.tcp_max_tw_buckets = 5000 --> 50000
net.ipv4.tcp_max_syn_backlog = 1024 --> 4096
net.core.somaxconn = 128 --> 4096
net.ipv4.tcp_tw_reuse = 1
net.ipv4.tcp_timestamps = 1(5和6同时开启可能会导致nat上网环境建联概率失败)
net.ipv4.tcp_tw_recycle = 1
/etc/security/limits.conf
* soft nofile 65535
* hard nofile 65535
- nginx参数优化
worker_connections 1024-->10240;
worker_processes 1-->16;(根据实际情况设置,可以设置成auto)
worker_rlimit_nofile 1024-->102400;
listen 80 backlog 511-->65533;
部分场景也可以考虑nginx开启长连接来优化短链接带来的开销
架构优化
- 扩容SLB后端ECS数量,ECS 配置统一;
- Nginx 反代后端 upstream 无效端口去除;
- 云助手批量处理服务,参数优化,添加实例标识;(划重点,大家批量使用 ECS,可以考虑利用云助手这个产品)
- 云监控大盘监控,ECS、SLB、DCDN、Redis等;
- 调整 SLB 为 7 层监听模式,前 7 后 4 关闭会话保持导致登录状态失效。
程序优化
- 添加 GC log,捕捉 GC 分析问题,设置进程内存;
/usr/bin/java -server -Xmx8g -verbose:gc -XX: PrintGCDetails -Xloggc:/var/log/xxxx.gc.log -Dserver.port=xxxx -jar /home/app/we.*****.com/serverboot-0.0.1-SNAPSHOT.jar
- 优化短信发送逻辑,登陆先查询 Redis 免登 Session,无免登 Session 再允许发送短信验证码(降短信的量,优化登陆体验);
- jedis连接池优化;
maxTotal 8-->20
acceptcount优化(对标somaxconn)
- bug:springboot1.5 带的 jedis2.9.1 的 Redis 连接泄漏的问题,导致 Tomcat 800 进程用满后都无限等待 Redis 连接。后来进一步调研发现这个问题在 2.10.2 已经修复,而且 2.10.2 向后兼容 2.9.1。
数据库优化
- Redis 公网地址变更为内网地址;
- Redis Session 超时设置缩短,用于释放 Redis 连接;
- 慢SQL优化(RDS的 CloudDBA 非常好用);
- 添加只读实例,自动读写分离;
- 优化 backlog;
- 添加读写分离实例数量。