首页 > 行业资讯 > 运维累是有原因的——故障自愈的应用实践分享

运维累是有原因的——故障自愈的应用实践分享

时间:2023-06-08 来源: 浏览:

运维累是有原因的——故障自愈的应用实践分享

三页 twt企业IT社区
twt企业IT社区

talkwithtrend

talkwithtrend.com社区(即twt社区)官方公众号,持续发布优秀社区原创内容。内容深度服务企业内各方向的架构师、运维主管、开发和运维工程师等IT专业岗位人群,让您时刻和国内企业IT同行保持信息同步。

收录于合集

【摘要】 运维累都是有原因的,此时就可以轮到故障自愈出场了。

【作者】 社区ID: 木讷大叔爱运维 ,互联网+金融行业,专注于运维、数据库领域,持续分享基于运维自动化的思考、实践及解决方案。

背景

最近晚上23:00甚至是凌晨总收到告警通知:磁盘可用量低于20%,这个时候不得不爬起来处理告警。当然这里要提醒大家:对于小问题,运维也绝不要抱着侥幸的心理,因为只有痛过才知道。

磁盘类告警只是我们诸多告警中的冰山一角,虽然我们有值班人员甚至是运维团队支撑,但是也不能因为这种小问题就分散注意力,这时我们就需要考虑如何通过自动化实现。

针对这种情况,我们通常会想到以下几点:

▪ 在告警机器上设置定时任务;

▪ 编写脚本压缩日志或清理磁盘空间。

这种方案虽然可行,但是试想下:如果我们管理的是上千台机器且目录结构混乱,那么我们面临的将是上千个脚本及定时任务,这个工作量是非常大的。

运维累都是有原因的,此时就可以轮到故障自愈出场了。

故障自愈

如图所示,对于生产故障,运维标准的处理流程是收到告警、登录跳板机、故障处理、故障恢复,整个过程都是通过人工手动处理。而故障自愈则是接受监控平台的告警定位,匹配预设的故障处理流程,进而通过自动化手段实现故障的自动恢复。

在认识故障自愈后,我们需要考虑的就是如何让运维管理的生产环境更广泛的接入故障自愈,而不是只针对单一的机器或某一类故障。因此在正式接入故障自愈前,我们还有很多的工作要做。

1.前提

为满足故障自愈通过自动化手段处理故障,我们必须提前制定一系列的流程规范:

● 目录管理规范标准的目录结构,接入故障自愈后可以用一套自动化脚本管理所有文件资源;

● 应用标准规范标准应用规范,接入故障自愈后可以用一套自动化脚本管理所有应用;

● 监控告警规范标准的监控告警规范,通过告警通知,无论是运维团队或自愈平台,都能通过告警通知更快速的定位问题;

● 标准的故障处理流程标准的故障处理流程,不仅可以帮助我们更快速的解决问题,而且可以帮助我们建立起运维团队的知识库。

这些流程规范不仅是故障自愈,也是我们日常运维工作过程中需要持续关注的,这也意味着这些基础性的工作是多么的重要。

2.监控平台

监控平台作为整个故障自愈的源头,必须满足快速准确定位故障的要求,因此就需要在多个维度提供可靠的监控。

● 硬件监控维度此类监控故障自愈一般无法接入,仅作为辅助手段帮我们及时发现问题;

● 基础监控维度基础监控主要是对CPU、内存、磁盘等资源使用情况进行监控,接入故障自愈后可发送占用资源的top10进程及自定义的磁盘清理策略;

● 应用监控维度应用监控主要是对应用状态进行监控,如健康检查、端口、其他自定义告警,接入故障自愈后可对应用进行重启;

● 中间件维度中间件维度主要是对集群的健康状态进行监控,如eureka instance、rabbitmq集群各节点服务、redis集群各节点服务等,接入故障自愈后可对各节点的服务进行处理。

当然根据监控平台的维度和粒度,我们可以将更多的故障场景接入故障自愈,这个随着我们运维经验的增多会不断丰富。

3.故障自愈平台

(1)多告警源

故障自愈的源头是监控平台,因此我们希望故障自愈平台不能是只针对某一特定的监控平台,因此它一定是多源的,这也符合当今监控工具的发展趋势。新的业务、系统和场景会催生新的监控需求,企业未来监控一定是多种监控产品并存,构建功能可持续成长的监控平台才能适应满足运维监控需求。

当今主流的监控工具如下:

● Zabbix

● Nagios

● Open Falcon

● Prometheus

● 等等

当然除了满足与监控工具对接,还要兼具REST API等方式接入。

(2)统一数据源

试想一个场景,通过监控平台发送的告警通知,我们可以快速定位到业务、应用、IP,那么故障自愈平台如何接入这些资源呢?因此我们就需要一个统一的数据源,为监控平台、故障自愈平台等上层应用提供可靠的权威数据源,此时CMDB就可以担任如此重要的角色。

在 ITIL 体系里,CMDB 是构建其它流程的基石,为应用提供了各种运维场景的配置数据服务。它是企业 IT 管理体系的核心,通过提供配置管理服务,以数据和模型相结合映射应用间的关系,保证数据的准确和一致性;并以整合的思路推进,最终面向应用消费,发挥配置服务的价值。

CMDB的建设是一个非常痛苦的过程,虽然我们是站在巨人的肩膀上直接使用其能力进行纳管资源,但其实也是走了很多弯路的:

● 运维团队内部的认可

● 按部门、角色对基础设施的职责划分

● CMDB的管理规范

● CMDB如何按组织架构对环境、部门、业务、应用等情况划分

● 如何更合适的纳管物理机、虚拟机、网络设备、数据库、中间件等资源

● CMDB如何为架构提供数据支撑

以上这些问题也只是在使用推广阶段我们所遇到的,因此在很多情况下CMDB都从万众期待走向了置之不理,但“拨开云雾见天日,守得云开见月明”,随着我们不遗余力的尝试与调整,CMDB 最终还是抗下了所有,发挥了它真正的价值。

(3)故障处理

有了统一的数据源,剩下的操作就是如何进行故障处理了,此时就需求故障自愈平台能够远程执行脚本。在日常运维工作中,我们一般通过以下几种方式:

● Ansible、SaltStack等自动化运维工具

● 中控机通过ssh远程执行命令

以上是我们通常使用的手段,但是还有更高级或更优雅的方式供我们参考:

● 集成CMDB的统一作业平台

● Jenkins流水线参数化构建

当然了,“不管黑猫白猫,能捉老鼠的就是好猫”,只要是适合当下运维能力的任何方式都可以。不要一味的追求高大上,给我们带来其他额外的工作负担。

(4)结果通知

无论最终的故障处理是否成功,我们都需要知道结果来决定是否要人工干预,因此我们希望处理结果能够对接多种渠道通知,如:

● 邮件通知

● 微信通知

● 钉钉通知

● 短信通知

● 电话通知

● 等等

总结

从上图我们可以看到,故障自愈虽然可以帮助我们解决很多问题,但其也只是问题处理过程中的一个环节,例如例行维护期间我们需要做到不触发故障自愈,否则还可能引起一些不必要的问题。因此,故障自愈还需和其他组件做好密切的对接,这就通过运维管理人员进行调度了。

最后需要明确的是,故障自愈只是运维过程中的一种手段而已,如何将其更广泛的应用还需运维本身去脚踏实地的去实践摸索。

是的,“罗马不是一天建成的”,当你看到此文时我已经经历了整个运维体系从无到有的建设过程,这些都是宝贵的财富,遂以文章将经历过的点滴记录下来。

运维故障治愈在企业应用探索实践经验

点击阅读原文可到社区原文下留言交流

觉得本文有用,请 转发、点赞 或点击 ,让更多同行看到

 资料/文章推荐:

  • 运维不简单!

  • IT 运维中的事件、故障排查处理思路

  • 企业运维故障复盘步骤及改进方法

  • 企业如何构建持续提升的故障管理能力

欢迎关注社区以下   “运维”技术主题  ,将会不断更新优质资料、文章。地址: https://www.talkwithtrend.com/Topic/4549

下载 twt 社区客户端 APP

长按识别二维码即可下载

或到应用商店搜索“twt”

长按二维码关注公众号

*本公众号所发布内容仅代表作者观点,不代表社区立场 封面图片由版权图库授权使用

版权:如无特殊注明,文章转载自网络,侵权请联系cnmhg168#163.com删除!文件均为网友上传,仅供研究和学习使用,务必24小时内删除。
相关推荐