前天语雀发生重大故障导致长达 7 个小时无法正常访问,语雀月日原因有个员蓝对于一款拥有千万级用户的公布故障产品,发生如此长的人用故障时间,着实让人有些震惊。户赠 昨天晚上语雀在其公众号解释了故障原因,送半没想到竟然是点网新的运维工具 bug 导致华东地区的生产服务器被误下线;又因为存储系统使用的机器类别较老无法直接操作上线,没办法语雀只能从备份系统里恢复存储数据,语雀月日原因有个员蓝这需要大量时间,公布故障恢复备份数据后又需要进行校验,人用直到晚上 9 点钟才恢复正常。户赠 这次故障也让大家知道了语雀使用的送半容灾架构是同 Region 多副本容灾而不是异地容灾方案,语雀称后续将升级为两地三中心的点网高可用能力,设计足够的语雀月日原因有个员蓝数据和系统冗余实现快速恢复并进行定期的容灾应急演练。 补偿问题: 对于语雀个人版用户全部赠送半年会员,公布故障操作流程:进入工作台账户设置、人用点击会员信息、在会员信息里点击立即领取即可获得赠送服务。 针对语雀空间用户由于情况比较复杂,语雀会单独制定赔偿方案,请空间管理员留意语雀站内信。 当然语雀的这次问题也再次为个人和企业用户敲响警钟,那就是要保证数据离线可用,不知道这次过后有多少用户会离开语雀。 下面是语雀公布的故障说明: 10 月 23 日下午,服务语雀的数据存储运维团队在进行升级操作时,由于新的运维升级工具 bug,导致华东地区生产环境存储服务器被误下线。受其影响,语雀数据服务发生严重故障,造成大面积的服务中断。为了尽快恢复服务,我们和数据存储运维团队全力进行数据恢复工作,但受限于恢复方案、数据量级等因素,整体用时较长。具体过程如下: 14:07 数据存储运维团队收到监控系统报警,定位到原因是存储在升级中因新的运维工具 bug 导致节点机器下线;14:15 联系硬件团队尝试将下线机器重新上线;15:00 确认因存储系统使用的机器类别较老,无法直接操作上线,立即调整恢复方案为从备份系统中恢复存储数据。15:10 开始新建存储系统,从备份中开始恢复数据,由于语雀数据量庞大,此过程历时较长,19 点完成数据恢复;同时为保障数据完整性,在完成恢复后,用时 2 个小时进行数据校验;21 点存储系统通过完整性校验,开始和语雀团队联调,最终在 22 点恢复语雀全部服务。用户所有数据均未丢失。 改进措施: 通过这次故障我们深刻认识到,语雀作为一款服务千万级客户的文档产品,应该做到更完善的技术风险保障和高可用架构设计,尤其是面向技术变更操作的 “可监控,可灰度,可回滚” 的系统化建设和流程审计,从同 Region 多副本容灾升级为两地三中心的高可用能力,设计足够的数据和系统冗余实现快速恢复,并进行定期的容灾应急演练。只有这样,才能提升严重基础设施故障时的恢复速度,并从根本上避免这类故障再次出现。为此我们制定了如下改进措施: 1、升级硬件版本和机型,实现离线后的快速上线。该措施在本次故障修复中已完成; 2、运维团队加强运维工具的质量保障与测试,杜绝此类运维 bug 再次发生; 3、缩小运维动作灰度范围,增加灰度时间,提前发现 bug; 4、从架构和高可用层面改进服务,为语雀增加存储系统的异地灾备。 |