我走了太多弯路
说实话,在日志处理这件事上,我被“知识陷阱”困了很久。
因为我太熟悉命令行了,grep、rg、awk 玩得飞起,所以过去很长一段时间,我都固执地认为这就是分析日志的“正统”方式。但现实经常打脸:当日志散落在不同服务器、不同路径下时,我得开无数个终端窗口跳来跳去,查个链路问题跟查案一样。
更惨的是,以前公司不给硬件资源,我根本不敢想 Elasticsearch 这种“吞金兽”。为了解决查询问题,我还自己折腾过一套特原始的方案:写脚本去 OSS 上拉压缩包,下载、解压、再用 rg 扫。还能只查找固定时间短的日志,使用者必须先在 GM 后台上查询到用户的登录记录,再根据日期查询具体时间的日志。
后来入职新公司,我这套“土法炼钢”的操作甚至被同事吐槽过:“你怎么还在当原始人?我们早都用 Grafana 查了。”
直到最近,我硬着头皮自己试着搭了一套 Grafana + Loki + Promtail,真的感觉推开了新世界的大门。那种震撼感在于:我只花了不到三十分钟部署,那种多机协同、可视化检索的爽感,瞬间就秒杀了过去几年的肉搏操作。
现在回头看,天天蹲在黑框框里人肉搜索,确实像个原始人。这篇文章就记录一下这个让我“走出石器时代”的工具组合,以及我的安装过程。讲真,以后哪怕项目再小、只有一个服务,我也要把日志接入 Loki。人生苦短,不要把生命浪费在 cd 和 grep 上。
[Read More]