k8s
  • Initial page
  • 序言
  • 前言
    • 发展历史
    • CNCF - 云原生计算基金会简介
    • Kubernetes与云原生应用的概念
  • 概念与原理
    • 基本概念总结
    • 开放接口
      • CRI - Container Runtime Interface
      • CNI - Container Network Interface
      • CSI - Container Storage Interface
    • 核心概念与原理
      • Kubernetes简介
      • Kubernetes架构与原理
      • 核心组件
      • 设计理念
      • 核心组件原理
        • etcd概念与原理
          • Etcd基于RAFT的一致性
          • Etcd v2 与 v3存储
        • kube-apiserver
        • kube-scheduler
        • kube-Controller Manager
        • Kubelet
        • kubectl常用命令
      • kubectl
      • kube-proxy
      • IPVS负载均衡
      • kube-dns
      • Federation-集群联邦
      • kubeadm
    • 资源对象与基本概念解析
    • 资源对象
      • Pod
        • Pod概述
        • Pod解析
        • Pod 的生命周期
        • 探针
        • Init 容器
        • Pause容器
        • Pod 安全策略
        • Pod hook
        • Pod Preset
        • pod其他设置
        • Pod中断与PDB
    • Kubernetes中的网络
      • 图解Kubernetes网络(一)
      • 图解Kubernetes网络(二)
      • 图解Kubernetes网络(三)
      • calico
      • flannel
    • 转发K8S后端服务的四种方式
    • 集群资源对象
      • Node
      • Namespace
      • Label
      • Annotation
      • Taint和Toleration(污点和容忍
      • 垃圾收集
      • Autoscaling
      • Horizontal Pod Autoscaling
        • Metrics-Server
        • Heapster
      • ReplicationController和ReplicaSet
    • 控制器资源对象
      • CronJob
      • Job
      • DaemonSet
      • Deployment
      • StatefulSet
    • 服务发现-资源对象
      • DNS原理讲解
      • Ingress 选型
      • Service
      • Ingress
    • 存储对象
      • ConfigMap
      • Volume
      • Persistent Volume(持久化卷)
      • StorageClass
      • 本地持久化存储
      • Secret
    • 策略对象
      • Resource Quota
      • SecurityContext
    • 身份对象
      • 认证
      • Service Account
      • RBAC——基于角色的访问控制
      • 准入控制
      • Network Policy
    • 资源调度
      • QoS(服务质量等级)
  • 插件扩展
    • Kubernetes的CI/CD
    • Dashboard
    • CoreDNS
    • 监控
      • 概述
      • 第1章 采集
        • Probes
        • Docker Stats
        • cAdvisor
        • Heapster
          • HPA
        • metrics-server
        • custom metrics自定义指标
        • kube-state-metrics
        • node-exporter
        • Prometheus
          • go 自定义metric
          • 本地存储
          • Prometheus概述
          • Prometheus基本架构
          • Prometheus部署方案
          • Prometheus的配置与服务发现
          • PromQL查询解析
          • Prometheus数据可视化
          • Prometheus存储机制
        • Sysdig
        • Untitled
      • 自定义监控
      • Custom-Metrics及Prometheus监控系统
      • grafana各种类型监控-实用
    • 日志
    • 存储
      • Kubernetes Ceph 工作原理详解
    • Metrics
    • GPU
    • Cluster AutoScaler
    • CI/CD
      • 基于DOCKER的CI工具—DRONE
      • DRONE安装指南
      • 如何使用DRONE
      • Drone
      • Jenkins
        • jenkins 集成 keycloak 认证
    • 50个免费的Kubernetes工具盘点
      • Kube集群部署工具
      • 监控工具
      • 测试工具
      • 安全工具
      • 实用的CLI工具
      • 开发工具
      • 无服务器/函数工具
      • 原生服务发现
      • 原生可视化与控制
    • Untitled
  • 领域应用
    • Istio
      • Helm安装
      • 安装并试用Istio service mesh
      • 示例应用部署
      • Bookinfo 应用-
      • 配置请求的路由规则
      • 故障注入
      • 流量转移
      • Istio流量管理实现机制深度解析
      • istio:监控能力介绍
      • Istio 04:Istio性能及扩展性介绍
      • Untitled
  • 实践
    • 大规模集群
    • 高可用
  • k8s运维排查
    • 常用命令
    • Kubernetes之YAML文件
      • yaml文件例子--pod
      • yaml文件例子--rc
    • Kubernetes运维
      • 集群管理
      • 集群与应用监控
      • 日志收集与管理
      • 常见问题定位
      • 权限管理RBAC
    • 排错概览
    • 集群排错
      • kubernetes集群管理常用命令一
    • Pod 排错
    • 网络排错
      • 容器内抓包定位网络问题
    • PV 排错
    • Windows 排错
    • 云平台排错
    • 集群安装脚本
    • 排错工具
    • 常见问题
      • k8s故障解决干货文档链接
      • 记一次Docker/Kubernetes上无法解释的连接超时原因探寻之旅
      • service没有负载均衡
      • kubernetes集群etcd空间配额2G的坑优化
    • K8S--100问
      • 解决 Docker 日志文件太大的问题
      • Kubernetes集群里容器之间的通讯方式
      • k8s 优化
      • lxcfs 在容器内显示容器的 CPU、内存状态
      • kubectl 创建 Pod流程
      • k8s网络-iptables
      • k8s底层网络原理
      • 网络排查
      • kubectl top 和 cadvisor metric ,docker state不一致的问题
      • 容器挂载数据卷的几种情况
      • 容器的终止流程
      • Kubernetes 中如何保证优雅地停止 Pod
      • K8S的apiVersion
      • 如何在Pod中执行宿主机上的命令
      • 创建 Pod 流程
      • k8s主要组件说明
      • 节点网络规划
      • Deployment管理方式
      • pod的分配方式
  • 深入浅出k8s
    • 说明
    • k8s发布策略介绍
    • oom kill原理讲解
    • Kubernetes 的架构设计与实现原理
  • 附录
    • CKA认证
    • 生态圈
    • 资讯快报
      • 2018态势回顾与2019年前景展望
      • Untitled
    • 学习资源
    • 参考文档
    • Kubernetes版本更新日志
      • Kubernetes 1.14 更新日志
      • Kubernetes 1.13 更新日志
      • Kubernetes1.12更新日志
      • Kubernetes1.10更新日志
      • Kubernetes1.11更新日志
  • 思维导图
    • k8s
    • DEVOPS
  • DEVOPS
    • 开源仓库-nexus
      • 一,nexus的安装
      • 二,使用nexus3配置docker私有仓库
      • 三,使用nexus3配置maven私有仓库
      • 四,nexus-3.14.0升级到3.15.2
      • 五,nexus3搭建golang私服
    • vpn
      • openvpn
    • Tcpdump 示例教程
    • Ipsec VPN-centos7使用strangwang搭建vpn
    • yum安装redis及常用指令
    • 数据库
      • mysql表操作
      • mysql 库常用操作及备份还原
      • MySQL 优化实施方案
    • NSQ
      • nsq问题解答
      • 选型
      • docker-compose部署 简单nsq 集群
    • 部署Redis集群
    • zookeeper安装及使用
    • Etcd
      • Untitled
      • Etcd配置
  • k8s系统完整部署
    • CentOS7.5 使用二进制程序部署Kubernetes1.12.2
    • 二进制的方式部署 K8S-1.16 高可用集群
    • CoreOS部署Kubernetes集群
    • EFK
      • 日志-kafka
      • logstash的部署、整合ELK+Filebeat
      • 应用日志收集
      • ES搭建
      • es集群部署
      • ElasticSearch技术原理
      • Elasticsearch操作
      • kibana
      • kibana简单使用
      • 非K8S主机部署Filebat
    • 镜像仓库-Harbor
    • Harbor 2.6.2安装
    • cURL 命令获取本机外网 IP
    • Shell 解析 JSON
    • 制作 gitbook 文档镜像,运行在 K8S 上
    • Kubernetes 之 MySQL 持久存储和故障转移
    • 如何删除etcd上的旧数据
    • Git 实战教程
  • 生活
    • 信合.阳光城
Powered by GitBook
On this page
  • 一,简介
  • stash第一个事件
  • 二,Logstash配置文件详解
  • logstash部署
  • 1. jdk安装(略)
  • 2 下载 logsash(需要和es版本对应)
  • 3. 配置开机启动服务
  • 日志筛选匹配处理
  • logstash input多个kafka,ouput多es索引
  • 参考文章
  1. k8s系统完整部署
  2. EFK

logstash的部署、整合ELK+Filebeat

Previous日志-kafkaNext应用日志收集

Last updated 3 years ago

官方部署文档:

阿里云文档:

学习:

所有日志由Rsyslog或者Filebeat收集,然后传输给Kafka,Logstash作为Consumer消费Kafka里边的数据,分别写入Elasticsearch和Hadoop,最后使用Kibana输出到web端供相关人员查看,或者是由Spark接手进入更深层次的分析。

在以上整个架构中,核心的几个组件Kafka、Elasticsearch、Hadoop天生支持高可用,唯独Logstash是不支持的,用单个Logstash去处理日志,不仅存在处理瓶颈更重要的是在整个系统中存在单点的问题

一,简介

由于于 logstash是java应用,解析日志是非的消耗cpu和内存,logstash安装在应用部署的机器上显得非常的笨重。最常见的做法是用filebeat部署在应用的机器上,logstash单独部署,然后由 filebeat将日志输出给logstash解析,解析完由logstash再传给elasticsearch。

stash第一个事件

Logstash管道有两个必需元素,输入和输出,以及一个可选元素filter。 输入插件使用来自源的数据,过滤器插件在您指定时修改数据,输出插件将数据写入目标。

  • Input组件:负责采集日志数据,包括文件、syslog、collectd、kafka、redis等等;

  • Filter:负责解析日志数据,包括解析、加工、转换数据等;

  • Output:负责输出日志数据,对接到redis、kafka、elasticsearch、hdfs等存储组件;

Filebeat(采集数据)+Logstash(过滤)+Elasticsearch(建立索引)+Kibana(展示)

二,Logstash配置文件详解

以6.3.2为例讲解

安装路径下可以看到相关配置文件:

# cd /etc/logstash/
# ls
conf.d  jvm.options  log4j2.properties  logstash.yml  pipelines.yml  startup.options


conf.d:logstash日志解析文件保存在此处;
jvm.options:内存相关设置
log4j2.properties:日志相关配置
logstash.yml:logstash系统相关配置
pipelines.yml:管道配置
startup.options:启动配置
一般测试时需要配置内存,默认内存为1g;

————————————————
。
原文链接:https://blog.csdn.net/u010904188/article/details/81776737

2。1下面主要讲解 过滤filter插件

filter 模块:

filter模块下主要插件grok、mutate、ruby、date、json如下:

filter{
    # 解析任意文本并且结构化他们。grok目前是logstash中最好的解析非结构化日志并且结构化他们的工具。这个工具非常适合syslog、apache log、mysql log之类的人们可读日志的解析
    grok{
       # 正则匹配日志,可以筛选分割出需要记录的字段和值
        match => { "message" => "正则表达式"}
       # 删除不需要记录的字段
        remove_field => ["message"]
    }
}

————————————————


原文链接:https://blog.csdn.net/u010904188/article/details/81776737
filter {  
    #mutate过滤器允许您对字段执行常规突变。您可以重命名,删除,替换和修改事件中的字段。
    mutate {
        #将字段的值转换为其他类型,例如将字符串转换为整数。如果字段值是数组,则将转换所有成员。如果该字段是哈希,则不会采取任何操作。
        convert => [
                    #把request_time的值装换为浮点型
                    "request_time", "float",
                    #costTime的值转换为整型
                    "costTime", "integer"
                    ]
        #将现有字段复制到另一个字段。将覆盖现有目标字段
        copy => { "source_field" => "dest_field" }
        #将正则表达式与字段值匹配,并将所有匹配替换为替换字符串。仅支持字符串或字符串数​​组的字段。对于其他类型的领域,将不采取任何行动。
        gsub => [
         #用下划线替换所有正斜杠
         "fieldname", "/", "_",
         #替换反斜杠,问号,哈希和减少
         #带点“。”
         "fieldname2", "[\\?#-]", "."
         ]
    } 

————————————————

原文链接:https://blog.csdn.net/u010904188/article/details/81776737
filter {
    #ruby插件可以使用任何的ruby语法,无论是逻辑判断,条件语句,循环语句,还是对字符串的操作,对EVENT对象的操作,都是极其得心应手的。
    ruby {
        #ruby插件有两个属性,一个init 还有一个code
        #init属性是用来初始化字段的,你可以在这里初始化一个字段,无论是什么类型的都可以,这个字段只是在ruby{}作用域里面生效。
        #这里我初始化了一个名为field的hash字段。可以在下面的coed属性里面使用。
        init => [field={}]
        #code属性使用两个冒号进行标识,你的所有ruby语法都可以在里面进行。
        #下面我对一段数据进行处理。
        #首先,我需要在把message字段里面的值拿到,并且对值进行分割按照“|”。这样分割出来的是一个数组(ruby的字符创处理)。
        #第二步,我需要循环数组判断其值是否是我需要的数据(ruby条件语法、循环结构)
        #第三步,我需要吧我需要的字段添加进入EVEVT对象。
        #第四步,选取一个值,进行MD5加密
        #什么是event对象?event就是Logstash对象,你可以在ruby插件的code属性里面操作他,可以添加属性字段,可以删除,可以修改,同样可以进行树脂运算。
        #进行MD5加密的时候,需要引入对应的包。
        #最后把冗余的message字段去除。
        code => "
            array=event。get('message').split('|')
            array.each do |value|
                if value.include? 'MD5_VALUE'
                    then 
                        require 'digest/md5'
                        md5=Digest::MD5.hexdigest(value)
                        event.set('md5',md5)
                end
                if value.include? 'DEFAULT_VALUE'
                    then
                        event.set('value',value)
                end
            end
             remove_field=>"message"
        "
    }
}

————————————————

原文链接:https://blog.csdn.net/u010904188/article/details/81776737

filter {
  #这是一个JSON解析过滤器。它需要一个包含JSON的现有字段,并将其扩展为Logstash事件中的实际数据结构。
  #默认情况下,它会将解析后的JSON放在Logstash事件的根(顶层)中,但是可以使用配置将此过滤器配置为将JSON放入任意任意事件字段中 target。
  json {
    #指定json所在位置如果您在message字段中有JSON数据
    source => "message"
    #如果此过滤器成功,请向此事件添加任意字段。字段名称可以是动态的,并使用包含事件的部分内容%{field}。
    add_field => { "foo_%{somefield}" => "Hello world, from %{host}" }
    #移除字段
    remove_field => [ "foo_%{somefield}" ]
  }
}

————————————————

原文链接:https://blog.csdn.net/u010904188/article/details/81776737

logstash部署

1. jdk安装(略)

2 下载 logsash(需要和es版本对应)

下载
wget https://artifacts.elastic.co/downloads/logstash/logstash-6.3.2.zip

解压压缩包
unzip logstash-6.3.2.zip

将解压的包移到/usr/share目录下
mv logstash-6.3.2 /usr/share/ cd /usr/share/logstash-6.3.2/

3 修改logstash的安装目录的config目录下的logstash-sample.conf文件,配置如下:

input {
  kafka {
    bootstrap_servers => ["10.1.196.24:9092,10.1.196.22:9092,10.1.196.23:9092"]
    group_id => "es-test"
    topics => ["estest"] 
    codec => json
 }
}
 #日志筛选匹配处理
filter {

}
output {
  elasticsearch {
    hosts => "http://es.miz.so:9200"
    index => "kafka‐%{+YYYY.MM.dd}"

 }
}

3. 配置开机启动服务

cd /lib/systemd/system

cat >  logstash.service <<EOF
[Unit]
Description=logstash
Wants=network-online.target
After=network-online.target

[Service]
User=root
ExecStart=/usr/share/logstash-6.3.2/bin/logstash -f /usr/share/logstash-6.3.2/config/logstash-sample.conf
# 设置为掉线自动重启,进程强制杀掉后会自动重新启动
Restart=always

[Install]
WantedBy=multi-user.target

EOF

systemctl daemon-reload
systemctl enable logstash
systemctl status logstash
systemctl start  logstash
systemctl status logstash
journalctl  -f -u logstash

日志筛选匹配处理

日志格式如下:

1.不符合规范的不进行收集,例如,日志规范中没有包含特定字段,interface,那么不进行收集
filter {
  if ![@fields][result] {
    drop{}
  }

}
参考文档:https://www.it1352.com/1579483.html
https://elasticsearch.cn/article/6192
2.或者对于包含特定字段内容的,输出到另外的索引

output {
#字段 errorType等于1, 并且interface等于500时,将内容输出到error_test索引
if [@fields][errorType] == "1" and [@fields][interface] == "500" {
  elasticsearch {
    hosts => "http://es.miz.hk:9200"
    index => "error_test‐%{+YYYY.MM.dd}"
  }
}
#字段interface等于200时,输出内容到kafka-索引
else if [@fields][interface] == "200" {
  elasticsearch {
    hosts => "http://es.miz.hk:9200"
    index => "kafka‐%{+YYYY.MM.dd}"
  }
}
else {
  elasticsearch {
    hosts => "http://es.miz.hk:9200"
    index => "kafka‐%{+YYYY.MM.dd}"
  }
}
3.对于包含特定字段内容的,不进行收集

# 字段result不为0的直接丢弃,不收集
filter {
if [@fields][result] != "0" {
  drop{}
}
}

logstash input多个kafka,ouput多es索引

实现:

1.topics pordlog 输出到es索引 prodlogs-2021-06-30

2.topics stagelog 输出到es索引 stagelogs-2021-06-3

3.如果字段包含soda则 输出到es索引 soda-2021-06-3

linux 下测试写入日志格式如下:

echo '{"@timestamp":"2021-06-30T17:36:55+08:00","@namespace":"maizuo","@service":"bill-service-574f6d59d6-bvwrb","@podIp":"10.20.1.239","@fields":{"traceId":"7","operatorId":"7","userId":"userId=1000","mobile":"这是darrendu12345678","orderId":"0","cardNo":"100","clientIp":"192.168.1.239"}}' >>newmaizuo.log

规则如下

[root@iZbp15rvy1pu807er7crnzZ config]# cat logstash-sample.conf
input {
  kafka {
    bootstrap_servers => ["10.1.196.25:9092"]
    client_id => "kafka_client_1"
    group_id => "es-prod"
    topics => ["pordlog"] 
    codec => json
 }
  kafka {
    bootstrap_servers => ["10.1.196.25:9092"]
    client_id => "kafka_client_2"
    group_id => "es-stage"
    topics => ["stagelog"]
    codec => json
 }
}
 #日志筛选匹配处理
filter {
      

}
output {
  if [@namespace] == "soda"{
  elasticsearch {
    hosts => "http://dmzes.maizuo.com:9200"
    index => "soda‐%{+YYYY.MM.dd}"
  }
} 
 else {
  elasticsearch {
    hosts => "http://dmzes.maizuo.com:9200"
    #index => "prod-new-filebeat-6.0.0‐%{+YYYY.MM.dd}"
    index => "%{[@metadata][topic]}‐%{+YYYY.MM.dd}"
 }
}
}
说明:input 消费kafka时, 分别指定不同的 client_id.见文档 https://liuzhihang.com/2019/03/04/logstash-input-multiple-kafka-exceptions

参考文章

原文:

logstash从选择要下载的版本链接

如下:

更多input插件可参考:

grok插件配置详解:如下,可酌情选择进行配置,可参考

mutate插件配置详解:如下,可酌情选择进行配置,可参考

ruby插件配置详解:如下,可酌情选择进行配置,可参考

json插件配置详解:如下,可酌情选择进行配置,可参考

更多可参考:

1。原文链接:

2。原文链接:

3。filebeat讲解

4 学习资料1

5 2

6.

https://www.cnblogs.com/caoweixiong/p/12691458.html
https://www.elastic.co/downloads
原文
https://www.elastic.co/guide/en/logstash/current/input-plugins.html
https://www.elastic.co/guide/en/logstash/current/plugins-filters-grok.html
https://www.elastic.co/guide/en/logstash/current/plugins-filters-mutate.html
https://www.elastic.co/guide/en/logstash/current/plugins-filters-ruby.html
https://www.elastic.co/guide/en/logstash/current/plugins-filters-json.html
https://www.elastic.co/guide/en/logstash/current/filter-plugins.html
https://blog.csdn.net/xujiamin0022016/article/details/114819249
https://blog.csdn.net/u010904188/article/details/81776737
https://www.cnblogs.com/cjsblog/p/9495024.html
https://elasticsearch.cn/question/2818
http://doc.yonyoucloud.com/doc/logstash-best-practice-cn/filter/grok.html
https://www.cnblogs.com/JetpropelledSnake/p/10873582.html
https://raw.githubusercontent.com/elastic/beats/7.12/deploy/kubernetes/filebeat-kubernetes.yaml
https://help.aliyun.com/document_detail/169257.htm
https://elkguide.elasticsearch.cn/