将Nginx日志放入Kafka的最佳选择?
我们正在处理来自我们在HDFS上添加的多个服务器的大型日志文件.我们目前有一个很好的批处理解决方案(主要是每天移动和编写文件),并希望用Kafka实现实时解决方案. 基本上,我们需要将来自Nginx的日志放入Kafka,然后编写消费者来写入HDFS(这可以通过HDFS消费者https://github.com/kafka-dev/kafka/tree/master/contrib/hadoop-consumer完成). 您建议将日志移至Kafka的方法是什么? >我们可以编写一个nginx模块,但并不是那么简单.这个https://github.com/DemandCube/Sparkngin可以提供一些线索. 还有其他想法吗? 最佳答案 我知道这是一个老问题.但最近,我还需要做同样的事情. tail -f producer的问题在于日志轮换,当尾部死亡时,你真的不知道哪些行已被发送到Kafka. 从nginx 1.7.1开始,access_log指令可以登录到syslog.请参阅http://nginx.org/en/docs/syslog.html.我们利用它来登录rsyslog,从rsyslog登录到Kafka. http://www.rsyslog.com/doc/master/configuration/modules/omkafka.html 这样做有点圆润,但这样,日志丢失的机会也就不小了.此外,如果您使用的是CentOS,那么rsyslog无论如何都会附带它. 所以简而言之,这是我认为将nginx日志放入kafka的最佳选择:
(编辑:莱芜站长网) 【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容! |
- python – 用uwsgi替换nginx
- nginx – 池www退出信号15(SIGTERM):执行超时
- 带有PHP7和Nginx 1.9.9的502 Bad Gateway
- ruby-on-rails – 有人试图进入我的服务器吗?
- ruby-on-rails – nginx 504网关超时
- amazon-web-services – Elastic Beanstalk Http重定向到Ht
- NGINX在HTML页面以外的所有页面上都有404错误
- 根据nginx中的mime类型有条件地添加expires头
- apache-2.2 – 如何让Nginx转发原始主机名
- nginx-加载SVG时出错-ERR_CONTENT_DECODING_FAILED