腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(8998)
视频
沙龙
1
回答
如
何在
ECK
上
为
kafka
输入
配置
Filebeat
?
、
、
、
我在Kubernetes
上
运行了Elasticsearch和Kibana。两者都是由
ECK
创建的。现在,我尝试将
Filebeat
添加到其中,并将其
配置
为
索引来自
Kafka
主题的数据。这是我当前的
配置
: apiVersion: beat.k8s.elastic.co/v1beta1metadata: namespacekibanaRef: name: my-k
浏览 107
提问于2021-02-04
得票数 0
1
回答
通过logstash使用apache
kafka
的实用程序是什么?
、
、
作为工具,我将使用Elk而不是Splunk,由于一些文章,他们极力推荐使用
Kafka
和logstash,但直到现在我还不知道这样做的目的,事实
上
,我的主要目的是
为
应用程序设置基本模块,以便我必须得到响应
浏览 8
提问于2018-08-28
得票数 0
回答已采纳
1
回答
使用JSON字段值作为卡夫卡主题的记录键
、
、
、
、
我在文件中有一个事件(JSON消息),需要通过
filebeat
发送给
Kafka
。像这样的
filebeat
.yml: output.
kafka
: hosts: ["{
KAFKA
1}:9092"使用此
配置
,默认消息“默认”总是报告
为
键。如何
配置
filebeat
.yml以提取自定义应用程序字段并将此信息用作
Kafka</e
浏览 0
提问于2020-02-20
得票数 0
1
回答
文件节拍复制事件
、
、
、
我在版本5.2
上
使用
Filebeat
> logstash > elasticsearch > kibana - all运行了一个基本的elk堆栈设置 当我删除
Filebeat
并将logstash
配置
为
直接查看文件时如果我删除数据并使用
Filebeat
重新摄取文件,以将相同的日志文件内容传递给logstash,我将获得超过10%的事件创建。我已经检查了其中的一些,以确认文件节拍正在创建副本。
浏览 3
提问于2017-02-02
得票数 2
3
回答
Spring Boot和ELK
、
、
任何示例
配置
或最新的库都将不胜感激。
浏览 2
提问于2019-02-05
得票数 1
3
回答
使用logstash从具有文件
输入
插件的远程计算机读取日志文件
、
、
目前,我的日志和日志存储在同一台机器
上
运行,因此我使用此
配置
(使用拉模型)读取放在本地计算机上的日志。=> "/home/Desktop/Logstash-Input/**/*_log" }现在,我们在另一台机器
上
运行有办法在
配置
文件的文件
输入
中设置ip吗?
浏览 8
提问于2015-07-01
得票数 4
回答已采纳
1
回答
在作为服务启动时不替换windows
上
的环境变量
、
我试着在Windows 10机器
上
运行一个文件。在我的
配置
中,我有一些环境变量,
如
:- type: log paths:当我用:
filebeat
.exe -e -v开始执行命令行的文件时,一切都很好。但是,当我以:Start-Service
filebeat
作为服务开始时,我的日志中有以下错误: 2018-07-
浏览 0
提问于2018-07-16
得票数 0
回答已采纳
3
回答
当
Kafka
Producer没有发送消息时,如何保存到本地存储消息?
、
、
如果消息没有发送,我们如
何在
磁盘中保存它们?当
Kafka
生产者抛出异常时,我们如何控制?
浏览 0
提问于2020-03-05
得票数 0
1
回答
如
何在
filebeat
.yml中提供linux托管日志作为
输入
路径?
、
如
何在
filebeat
.yml文件中给出
输入
路径?
浏览 60
提问于2020-10-08
得票数 1
回答已采纳
2
回答
Filebeat
:将不同的日志从
filebeat
发送到不同的logstash管道
、
、
、
我已经
配置
了一个具有两个管道的日志存储服务,给出了两个管道单独的端口。假设Pipeline1 (端口5044),Pipeline2 (端口5045) 现在,我想使用
filebeat
将数据发送到logstash。所以我有两种类型的日志文件,比方说log1,log2。
浏览 0
提问于2019-04-03
得票数 2
回答已采纳
1
回答
对于在ELK堆栈中使用
filebeat
和logstash从多个服务器获取日志,有什么建议吗?
、
、
在我的办公室基础设施中有3台服务器,即feature_server、develop_server和log_server。两台服务器目前都在运行nginx服务。我想做的事情是如何尽可能地使用ELk堆栈(logstash和filebeats)从它们中收集nginx日志。它已经在为一台服务器工作了。任何类型的想法都将非常受欢迎。
浏览 41
提问于2020-03-20
得票数 0
1
回答
Logstash使用9092以外的端口未接收卡夫卡在坞内运行的数据(撰写)
、
、
、
我想在elk堆栈中使用
kafka
,其中
filebeat
从文件中读取日志,并将数据发送到
kafka
,然后由
kafka
将其发送到logstash。我正在运行卡夫卡使用坞-撰写文件。我通过使用端口9092 (这是
kafka
的默认设置)来运行它,但问题是我的组织已经在端口9092
上
运行了其他服务。因此,我已经使用9095在我的对接-组成主机和9092在容器内。当我试图在
kafka
中使用
filebeat
和logstash时,数据并没有到达logstash。这是我
浏览 2
提问于2021-08-11
得票数 0
回答已采纳
1
回答
有没有办法从消息中确定logstash
输入
插件?
、
我的logstash
配置
中有两个(
kafka
)
输入
插件。每个
输入
插件都被
配置
为
侦听不同的
kafka
代理。我想在消息中包括一些字段,表示哪个
输入
插件生成了消息。我希望能够在我的
输入
定义中包含一个硬编码的字段,
如
"input=
kafka
1“、"input=
kafka
2”等。我不认为我可以使用变异过滤器,因为到那时,我不知道消息来自哪里?
浏览 13
提问于2020-10-15
得票数 0
回答已采纳
1
回答
“初始化发布服务器错误:未定义输出”。当试图将日志转发到Logstash时
、
、
我已经在我的Windows
上
为
Logstash
配置
了central.conf文件 port => 5044} hosts => ["http://localhost:9200"] } 并将Unix (CentOS - 7)
上
的
Filebeat
配置
为
filebeat
浏览 1
提问于2016-05-08
得票数 1
回答已采纳
1
回答
Hadoop可以做流媒体吗?
、
、
、
、
有人建议Hadoop做流媒体,并引用了Flume和
Kafka
作为例子。 虽然我知道它们可能具有流媒体功能,但我想知道它们是否可以与Storm/Spark/Flink等流处理技术并驾齐驱。
Kafka
是一个“发布-订阅模型消息传递系统”,而Flume是一个数据摄取工具。即使它们与hadoop交互/集成,从技术
上
讲,它们是“hadoop”本身的一部分吗?
浏览 4
提问于2018-04-07
得票数 0
1
回答
Graylog2侧卡收集器日志未显示在仪表板
上
、
安装了sidecar收集器,并将其
配置
为
文件节拍后端。它已经成功运行了。做了一个输出,并附加了一些
输入
与一般日志文件。仪表板
上
还没有日志。configurations tagged by: [syslog linux] INFO[0000] [
filebeat
] Starting INFO[0010] [
filebeat
]
浏览 3
提问于2016-10-06
得票数 1
回答已采纳
1
回答
将日志从应用程序服务器发送到ELK服务器,并带有节拍。
、
我已经
配置
了如下(ii).Application服务器( apache服务器)-安装在apache服务器
上
cat /etc/logstash/con.d/02-拍-
输入
beats { }我也
配置
了过滤器部分。当我试图从apache服务器
上
运行"
filebeat
“命令时,我得
浏览 0
提问于2020-05-27
得票数 0
回答已采纳
2
回答
Filetab5.0输出到
Kafka
的多个主题
、
我在我的应用服务器
上
安装了FileB打5.0,并且有3个FileB打探矿器,每个探矿器都指向不同的日志路径,输出到一个名为myapp_applog的
kafka
主题,一切都很好。我的文件输出
配置
为
一个主题-工作 # initial brokers for reading cluster metadata hosts: ["broker这是我的
kafka
输出多个主题的
配置
。
配置
文件。#####
浏览 2
提问于2016-12-03
得票数 5
回答已采纳
1
回答
卡夫卡对库伯奈特连接问题的影响
、
、
、
、
我在连接Fluentd到
Kafka
以获得我正在处理的集中式日志记录PoC时遇到了问题。我目前正在使用以下
配置
:
配置
:我在yaml中设置了FLUENT_
KAFKA
2_BROKERS=<INTERNAL
KAFKA
BOOTSTRAP IP>:9092和FLUENT_
KAFKA
2_DEF
浏览 3
提问于2022-02-10
得票数 1
1
回答
如何使用avro模式从
kafka
主题向apache注入数据?
、
、
我想了解apache如何处理具有AVRO模式的
Kafka
主题(模式包括嵌套对象、对象数组等)因为我没有找到任何资源或例子,说明我们如何使用带有avro模式的
Kafka
注入数据。根据我的理解,apache必须
为
嵌套的Json对象提供平面模式或其他选项,我们可以使用transform函数。有什么卡夫卡连接的皮诺做数据注入吗?] }} } ]
Kafka
浏览 1
提问于2021-05-21
得票数 0
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
Spark Structured Streaming 入门学习:集成Kafka
基于 filebeat 的容器日志采集方案
分布式实时日志分析解决方案 ELK 部署架构
无侵入日志采集中心的设计与实现
如何快速采集分析平台日志,并进行展示监控?
热门
标签
更多标签
云服务器
ICP备案
对象存储
腾讯会议
云直播
活动推荐
运营活动
广告
关闭
领券