
日志分析是服务器运维与业务排查的核心,但 TB 级日志+复杂筛选需求下,传统 Linux 命令存在“手动成本高、规则难维护”痛点。本文以“Tomcat 日志提取数据”为例,拆解 grep 命令基础用法,更融合 AI 工具构建“命令粗筛+AI 精处理” workflow,让日志分析更高效。
目标是从 catalina.out.2025-09-02-19 日志提取 ApiService(API接口)的学生数据,但需解决传统方案痛点:
userName/imageUrl/userId 等结构化数据;userName 改 studentName)时无需频繁改命令。# 定位文件→筛选服务→筛选学生
grep "ApiService" $(find ./ -type f -name "catalina.out.2025-09-02-19") | grep -E "学生1|学生2|..."步骤 | 作用 | 痛点 |
|---|---|---|
find 定位文件 | 避免手动找路径 | 多 Tomcat 实例时易漏文件 |
grep "ApiService" 筛服务 | 排除无关日志 | 服务类名变更多需重改关键词 |
grep -E 学生名单 筛学生 | 聚焦目标人群 | 手动拼正则易出错,名单更新麻烦 |
AI 不替代命令,而是补全“手动操作”短板,形成协同闭环。
| 拼 多个学生名,耗时易错。学生1|学生2|... 代入命令。痛点:命令输出原始日志,需人工复制字段。
操作:
命令初筛存小文件:
grep "ApiService" $(find ./ -name "catalina.out.2025-09-02-19") | grep -E "学生1|..." > temp.log向 AI 传 temp.log 并指令:“解析日志 JSON,提取 userName/imageUrl/userId/schoolId,按‘姓名:URL:ID:学校ID’输出,去重且仅保留目标学生”;
AI 直接输出结构化结果,可导 Excel。
ApiService/studentName);grep 初筛,再传 AI。Linux 命令是“高效粗筛基石”,AI 是“智能精处理加速器”,二者结合实现“命令初筛→AI 精处理→人工校验”的高效闭环。未来更可能实现“自然语言提需求→AI 自动出结果”,进一步降低日志分析门槛。