nginx+lua 实现请求流量上报kafka

文章目录

[隐藏]

  • 环境依赖
  • 代码实现
环境依赖

前面26、27、28讲到的博文环境即可,上报kafka ,只需在应用层nginx上操作(192.168.0.16,192.168.0.17)

请求上报kafka 其实很简单,大致思路是:

  • 下载lua-resty-kafka,提供lua 操作kafka的方法类库
  • lua 获取nginx 请求参数,组装上报对象
  • 上报对象 encode cjson 编码
  • lua kakfa 上报即可
代码实现
  • 引入 lua-resty-kafka 类库
yum install -y unzip  cd /usr/local/servers/ && wget https://github.com/doujiang24/lua-resty-kafka/archive/master.zip  unzip master.zip  cp -rf lua-resty-kafka-master/lib/resty/kafka /usr/local/test/lualib/resty/  /usr/local/servers/nginx/sbin/nginx -s reload  
  • lua 获取请求,组装上报对象,encode对象并上报(注意:以下代码只对流量上报代码进行注释,其他代码参考 前面 28 “分发层 + 应用层” 双层nginx 架构 之 应用层实现)
vim /usr/local/test/lua/test.lua  

代码如下:

// 引入 kafka 生产者 类库  local producer = require("resty.kafka.producer")  // 引入json 解析类库  local cjson = require("cjson")  // 构造kafka 集群节点 broker  local broker_list = {      { host = "192.168.0.16", port = 9092},      { host = "192.168.0.17", port = 9092},      { host = "192.168.0.18", port = 9092}  }  // 定义上报对象  local log_obj = {}  // 自定义模块名称  log_obj["request_module"] = "product_detail_info"  // 获取请求头信息  log_obj["headers"] = ngx.req.get_headers()  // 获取请求uri 参数  log_obj["uri_args"] = ngx.req.get_uri_args()  // 获取请求body  log_obj["body"] = ngx.req.read_body()  // 获取请求的http协议版本  log_obj["http_version"] = ngx.req.http_version()  // 获取请求方法  log_obj["method"] = ngx.req.get_method()  // 获取未解析的请求头字符串  log_obj["raw_reader"] = ngx.req.raw_header()  // 获取解析的请求body体内容字符串  log_obj["body_data"] = ngx.req.get_body_data()  // 上报对象json 字符串编码  local message = cjson.encode(log_obj)    local uri_args = ngx.req.get_uri_args()  local product_id = uri_args["productId"]  local shop_id = uri_args["shopId"]  // 创建kafka producer 连接对象,producer_type = "async" 异步  local async_producer = producer:new(broker_list, {producer_type = "async"})  // 请求上报kafka,kafka 生产者发送数据,async_prodecer:send(a,b,c),a : 主题名称,b:分区(保证相同id,全部到相同的kafka node 去,并且顺序一致),c:消息(上报数据)  local ok, err = async_producer:send("access-log", product_id, message)  // 上报异常处理  if not ok then     ngx.log(ngx.ERR, "kafka send err:", err)     return  end  local cache_ngx = ngx.shared.test_cache  local product_cache_key = "product_info_"..product_id  local shop_cache_key = "shop_info_"..shop_id  local product_cache = cache_ngx:get(product_cache_key)  local shop_cache = cache_ngx:get(shop_cache_key)  if product_cache == "" or product_cache == nil then        local http = require("resty.http")        local httpc = http.new()          local resp, err = httpc:request_uri("http://192.168.0.3:81",{          method = "GET",              path = "/getProductInfo?product" or shop_cache == nil then        local http = require("resty.http")        local httpc = http.new()        local resp, err = httpc:request_uri("http://192.168.0.3:81",{          method = "GET",              path = "/getShopInfo?shopresty.template")  template.render("product.html", context)  
  • 配置nginx DNS resolver实例,避免 DNS 解析失败
vim /usr/local/servers/nginx/conf/nginx.conf  

在 http 部分添加以下内容,如下图:

resolver 8.8.8.8  

配置nginx dns resolver
(注:以上操作 nginx 应用服务器(192.168.0.16,192.168.0.17)都需要进行)

  • 配置 kafka advertised.host.name 参数(避免通过机器名无法找到对应的机器)(所有kafka 节点都配置)

advertised.host.name = 本机ip

vim /usr/local/kafka/config/server.properties  

配置advertised.host.name

  • nginx 校验 及 重载
/usr/local/servers/nginx/sbin/nginx -t && /usr/local/servers/nginx/sbin/nginx -s reload  
  • 启动kafka(确保 zookeeper 已启动)
cd /usr/local/kafka && nohup bin/kafka-server-start.sh config/server.properties &  
  • kafka 中创建 access-log 主题
cd cd /usr/local/kafka && bin/kafka-topics.sh –zookeeper my-cache1:2181,my-cache2:2181,my-cache3:2181 –topic access-log –replication-factor 1 –partitions 1 –create  
  • 打开kafka consumer 查看数据
bin/kafka-console-consumer.sh –zookeeper my-cache1:2181,my-cache2:2181,my-cache3:2181 –topic access-log –from-beginning  
  • 浏览器请求nginx

nginx请求

shell 打开kafka 消费端查看请求上报kafka 数据

完毕,利用nginx + lua 实现请求流量上报kafka就到这里了。

以上就是本章内容,如有不对的地方,请多多指教,谢谢!

原文出处:96nian -> http://www.96nian.com/4026.html

本站所发布的一切资源仅限用于学习和研究目的;不得将上述内容用于商业或者非法用途,否则,一切后果请用户自负。本站信息来自网络,版权争议与本站无关。您必须在下载后的24个小时之内,从您的电脑中彻底删除上述内容。如果您喜欢该程序,请支持正版软件,购买注册,得到更好的正版服务。如果侵犯你的利益,请发送邮箱到 [email protected],我们会很快的为您处理。