首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >FileBeat收集nginx-ingress-controller日志

FileBeat收集nginx-ingress-controller日志

作者头像
莲子心
发布2025-07-14 16:50:13
发布2025-07-14 16:50:13
11100
代码可运行
举报
文章被收录于专栏:技术随笔技术随笔
运行总次数:0
代码可运行

在云原生环境下使用nginx-ingress-controller作为网关服务,我们希望能监控网关流量,重点监控访问者的IP和访问的服务。目前使用比较多的两种基于 NGINX 的 Ingress 控制器实现:一种是nginxinc/kubernetes-ingress,另一种是kubernetes/ingress-nginx,我们使用的是nginxinc/kubernetes-ingress,它是nginx社区维护的一个版本。开始准备通过metric暴露nginx-ingress-controller的监控指标,使用Prometheus进行采集,发现nginx社区维护的这个开源版kubernetes-ingress可收集的监控指标非常少。我们需要的信息其实Nginx都有打印日志,所以,我们决定采集nginx-ingress-controller的日志,最终收集到ES中进行存储,后期就可以使用Kibana查询这些日志,甚至对这些日志进行分析。

涉及组件

nginxinc/kubernetes-ingress Helm部署 helm.sh/chart版本:nginx-ingress-0.10.4 ,镜像:deploy.bocloud.k8s/nginx/nginx-ingress:1.12.4

filebeat:7.13.4 Helm部署 elasticsearch:v 7.8.0 集群

实现

首先,我们要让nginx-ingress-controller打印出json日志,使用官方提供的log-format配置实现

代码语言:javascript
代码运行次数:0
运行
复制
│ apiVersion: v1                                                                                                                                                                                  
│ data:                                                                                                                                                                                           
│   log-format: '{"time": "$time_iso8601", "remote_addr": "$remote_addr", "x_forwarded_for":                                                                                                      
│     "$proxy_add_x_forwarded_for", "remote_user": "$remote_user", "bytes_sent": $bytes_sent,                                                                                                     
│     "request_time": $request_time, "status": $status, "vhost": "$host", "request_proto":                                                                                                        
│     "$server_protocol", "path": "$uri", "request_query": "$args", "request_length":                                                                                                             
│     $request_length, "duration": $request_time,"method": "$request_method", "http_referrer":                                                                                                    
│     "$http_referer", "http_user_agent": "$http_user_agent"}'                                                                                                                                    
│   log-format-escaping: default                                                                                                                                                                  
│   server-tokens: "false"                                                                                                                                                                        
│ kind: ConfigMap                                                                                                                                                                                 
│ metadata:                                                                                                                                                                                       
│   annotations:                                                                                                                                                                                  
│     meta.helm.sh/release-name: my-nginx-ingress                                                                                                                                                
│     meta.helm.sh/release-namespace: nginx-ingress                                                                                                                                               
│   labels:                                                                                                                                                                                       
│     app.kubernetes.io/instance: my-nginx-ingress                                                                                                                                               
│     app.kubernetes.io/managed-by: Helm                                                                                                                                                          
│     app.kubernetes.io/name: my-nginx-ingress-nginx-ingress                                                                                                                                     
│     helm.sh/chart: nginx-ingress-0.10.4                                                                                                                                                         
│   name: my-nginx-ingress-nginx-ingress                                                                                                                                                         
│   namespace: nginx-ingress                                                                                                                                                                       

然后,我们发现nginx-ingress的日志并没有打印到.log文件中,而是被重定向到标准输出中。

代码语言:javascript
代码运行次数:0
运行
复制
[root@Ubuntu ~]$ kubectl exec -it my-nginx-ingress-nginx-ingress-68f94c8866-99p4d -- ls -l /var/log/nginx
total 0
lrwxrwxrwx 1 root root 11 Mar 17  2022 access.log -> /dev/stdout
lrwxrwxrwx 1 root root 11 Mar 17  2022 error.log -> /dev/stderr

在宿主机的/var/log目录下存放了所有容器的标准输出日志。

Note:/var/log/containers/.log is normally a symlink to /var/log/pods//*/.log

所以,我们只需要让Filebeat收集/var/log目录下对应容器的日志就可以了。这里我们使用了flexVolume来挂载文件,也可以使用其他方式。 如下是Filebeat helm包的values.yaml文件部分关键内容:

代码语言:javascript
代码运行次数:0
运行
复制
daemonset:
 enabled: true
 extraVolumeMounts:
 - mountPath: /var/log/pods
   name: pods
   readOnly: true
 - mountPath: /var/log/containers
   name: containers
   readOnly: true
 extraVolumes:
 - flexVolume:
     driver: mydriver/hostpath
     options:
       driver.root: /var/log/containers
   name: containers
 - flexVolume:
     driver: mydriver/hostpath
     options:
       driver.root: /var/log/pods
   name: pods
 filebeatConfig:
   filebeat.yml: |
     filebeat.inputs:
     - type: container
       id: my-nginx-ingress
       paths:
         - /var/log/containers/my-nginx-ingress-nginx-ingress-*.log
       processors:
       - replace:
           fields:
           - field: "log.file.path"
             pattern: "/var/log/containers/my-nginx-ingress-nginx-ingress-"
             replacement: "/opt/applog/cluster-demo/nginx-ingress/my-nginx-ingress/nginx-ingress-"
           ignore_missing: false
           fail_on_error: true
       - add_fields:
           target: kubernetes
           fields:
             namespace: cluster-ingress-nginx
             labels:
               app: nginx-ingress-controller
       - decode_json_fields:
           fields: ["message"]
           process_array: false
           max_depth: 1
           target: ""
           overwrite_keys: false
           add_error_key: true
       - drop_fields:
           when:
             and:  
             - has_fields: ['message']
             - equals:
                 stream: 'stdout'
           fields: ["message"]
           ignore_missing: false

配置中包含日志文件的挂载,这里不再赘述,主要看看filebeat.yml文件的配置 首先使用filebeat-input-container收集nginx-ingress-controller的log文件 最后配置了4个processors,分别是replaceadd_fieldsdecode_json_fieldsdrop_fields

replace和add_fields: 由于我们的业务日志大多是指定目录规则存储在宿主机的/opt/applog目录下,通过filebeat的autodiscover收集(如下配置)后发送到kafka,然后logstash取出数据进行处理,在处理时我们需要根据路径和字段名取出对应的值进行逻辑处理。所以对于这种特殊的/var/log/目录下的日志,logstash无法处理,我们需要根据规则replace替换log.file.path以及添加一些我们需要的字段。

代码语言:javascript
代码运行次数:0
运行
复制
filebeat.autodiscover:
  providers:
    - type: kubernetes
      hints.enabled: true
      hints.default_config.enabled: false
      hints.default_config:
        type: log
        paths:
          - /opt/applog/${data.kubernetes.namespace}/${data.kubernetes.labels.app}/${data.kubernetes.pod.name}/**/*.log
          - /opt/applog/${data.kubernetes.namespace}/${data.kubernetes.labels.app}/${data.kubernetes.pod.name}/**/*.json
        ignore_older: 48h
        clean_inactive: 72h

decode_json_fields和drop_fields:nginx-ingress-controller打印出json日志到/var/log/containers目录文件下后格式如下

代码语言:javascript
代码运行次数:0
运行
复制
{
  "log": {
    "time": "2024-08-01T02:52:15+00:00",
    "status": 304,
    "vhost": "app.com",
    "request_proto": "HTTP/1.1",
    "request_length": 945,
    "duration": 0.209,
    "method": "GET",
    "path": "/user/get",
    // 省略其它字段
  },
  "stream": "stdout",
  "time": "2024-08-01T02:52:15.053975954Z"
}

filebeat收集时将这个json结构中的log字段下的内容放到message字段下(猜测是type: container干的?这里不去追究),这在elasticsearch中使用kibana查询时不太友好(不能解析为“可用字段”就不能根据我们需要的字段筛选比如:vhost)。我们希望将message中的json字段解码出来方便搜索和筛选,就要用到decode_json_fields,解码完成后将message字段删除使用drop_fields。

20240117添加:前面nginx日志的log-format只对access_log生效,而error_log还是会以之前的格式输出,导致错误日志经过filebeat的处理后最重要的message字段被drop_fields掉了,所以可以通过and判断的方式来删除message字段,标准输出的stream是stdout,而错误日志的输出stream是stderr

代码语言:javascript
代码运行次数:0
运行
复制
       - drop_fields:
           when:
             and:  
             - has_fields: ['message']
             - equals:
                 stream: 'stdout'
           fields: ["message"]
           ignore_missing: false

这样就实现了stream是stdout就没有message字段,而错误日志的输出stream是stderr,保留message字段。

本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
原始发表:2024-8-1,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 涉及组件
  • 实现
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档