[QUESTION]:同步日志文件到Kafka,如何将原始信息写入Kafka的topic,不要添加contents,tags,time这些字段 #2133
-
以下为实际写入Kafka的内容,预期值为:"Hello, iLogtail!" { |
Beta Was this translation helpful? Give feedback.
Replies: 13 comments
-
这个可能要自己改下代码了 |
Beta Was this translation helpful? Give feedback.
-
具体代码在哪个地方,修改思路能说明一下吗? |
Beta Was this translation helpful? Give feedback.
-
最好是添加一个控制参数,通过开关来实现这个功能。 |
Beta Was this translation helpful? Give feedback.
-
Beta Was this translation helpful? Give feedback.
-
Beta Was this translation helpful? Give feedback.
-
@silentmoooon 你可以提个pr,建议官方合到主仓库去。这个需求是存在的。 |
Beta Was this translation helpful? Give feedback.
-
好,待我完善一下再提 |
Beta Was this translation helpful? Give feedback.
-
这个方式从行业日志采集实践上将并不好,所有采集器都添加一些额外信息实际上只是为了追溯信息来源。没有来源出问题分析问题很难,除非只有一台机器自己玩。多余的几个字段也并不占太多存储空间,觉得占用空间给 |
Beta Was this translation helpful? Give feedback.
-
@iamhungry 这个需求的场景是什么 |
Beta Was this translation helpful? Give feedback.
-
https://mp.weixin.qq.com/s/A5ONkvkh9JF5SvDdDP-o0Q 我是参考这篇文章处理业务层的数据上报,想用ilogtail替换filebeat 本地落盘的log是业务层上报的数据,通过filebeat直接传入kafka。 落盘的文件按业务划分,一个业务只向一个文件里写,一个文件对应一个kafka的topic,追溯信息来源不需要特别指定是哪个文件。即通过定义约定,可以省掉很多中间的逻辑。 自己解析确实不复杂,这种日志量很大,在讲究性能的情况下,能不解析少操作一步,肯定是优化。 |
Beta Was this translation helpful? Give feedback.
-
在filebeat里,是有这个配置项的。它默认也是附加了一些字段,通过以下配置可以原样写入kafka. |
Beta Was this translation helpful? Give feedback.
-
日志文件和topic区分了业务,但是日志来自那个实例节点你们是直接打印的日志里吗。比如程序跑5个实例在不同的机器上,有一个实例的机器可能是网络故障、硬件损坏了,如果只存message内容目前你们是怎么在采集里区分的在那台机器出问题 |
Beta Was this translation helpful? Give feedback.
-
哪台机器出问题,属于运维监控层面的事,负载均衡会自动去掉异常节点,不将日志流量转发过去。 监控系统很成熟,通过监控报警,自然就知道问题出现在哪台机器上。 分层思想,可以简化当前处理的问题。也就是说,我们不在业务里面处理日志的节点跟踪。 |
Beta Was this translation helpful? Give feedback.
可以参考下我的,写得比较简单粗暴,
加了个参数, 自己简单处理了一下