程序问答   发布时间:2022-06-02  发布网站:大佬教程  code.js-code.com
大佬教程收集整理的这篇文章主要介绍了logstash Apache日志的自定义日志过滤器大佬教程大佬觉得挺不错的,现在分享给大家,也给大家做个参考。

如何解决logstash Apache日志的自定义日志过滤器?

开发过程中遇到logstash Apache日志的自定义日志过滤器的问题如何解决?下面主要结合日常开发的经验,给出你关于logstash Apache日志的自定义日志过滤器的解决方法建议,希望对你解决logstash Apache日志的自定义日志过滤器有所启发或帮助;

从开始httpD_COMMONLOG,您可以使用以下模式(可以在grok tester上进行测试):

grok {
 match => { 
  "message" => "%{IPORHOST:clIEnt_ip} %{httpDUSER:IDent} %{httpDUSER:auth} \[%{httpDATE:timestamp}\] \"(?:%{WORD:methoD} /API/v%{numbER:version}/places/search/Json\?%{NOTSPACE:request}(?: http/%{numbER:httpversion})?|%{DATA:rawrequest})\" %{numbER:response_codE} (?:%{numbER:data_transfereD}|-)"
 } 
}

一旦grok过滤器提取了请求,就可以在其上使用kv过滤器,该过滤器将提取参数(并忽略参数不是特定于订单的问题)。您必须将fIEld_split选项设置为&:

kv { 
  source => "request"
  fIEld_split => "&"
}

对于search_query,根据存在的字段,我们使用@H_386_3@mutate带有add_fIEld选项的过滤器来创建字段。

filter {
    grok {
        match => { 
            "message" => "%{IPORHOST:clIEnt_ip} %{httpDUSER:IDent} %{httpDUSER:auth} \[%{httpDATE:timestamp}\] \"(?:%{WORD:methoD} /API/v%{numbER:version}/.*/Json\?%{NOTSPACE:request}(?: http/%{numbER:httpversion})?|%{DATA:rawrequest})\" %{numbER:response_codE} (?:%{numbER:data_transfereD}|-)"
        } 
    }
    kv { 
        source => "request"
        fIEld_split => "&"
    }

    if [query] {
        mutate {
            add_fIEld => { "search_query" => "%{query}" }
        }
    } else if [keyword] {
        mutate {
            add_fIEld => { "search_query" => "%{keyworD}" }
        }
    }

    if [refLOCATIOn] {
        mutate {
            rename => { "refLOCATIOn" => "LOCATIOn" }
        }
    }
}

解决方法

我是ELK堆栈的新手。我有一个文件拍服务,将日志发送到logstash,并在logstash中使用grok过滤器,将数据推送到elasticsearch索引。

我正在使用gork筛选器@H_386_3@match => { "message" => "%{COMBINEDAPACHelOG}"}来解析数据。

我的问题是,我希望将字段名称及其值存储在elasticsearch索引中。我的日志的不@R_228_11197@如下:


27.60.18.21 - - [27/Aug/2017:10:28:49 +0530] "GET /api/v1.2/places/search/json?username=pradeep.pgu&LOCATIOn=28.5359586,77.3677936&query=atm&explain=true&bridge=true http/1.1" 200 3284
27.60.18.21 - - [27/Aug/2017:10:28:49 +0530] "GET /api/v1.2/places/search/json?username=pradeep.pgu&LOCATIOn=28.5359586,77.3677936&query=atms&explain=true&bridge=true http/1.1" 200 1452
27.60.18.21 - - [27/Aug/2017:10:28:52 +0530] "GET /api/v1.2/places/nearby/json?&refLOCATIOn=28.5359586,77.3677936&keyword=FINATM http/1.1" 200 3283
27.60.18.21 - - [27/Aug/2017:10:29:06 +0530] "GET /api/v1.2/places/search/json?username=pradeep.pgu&LOCATIOn=28.5359586,77.3677936&query=co&explain=true&bridge=true http/1.1" 200 3415
27.60.18.21 - - [27/Aug/2017:10:29:06 +0530] "GET /api/v1.2/places/search/json?username=pradeep.pgu&LOCATIOn=28.5359586,77.3677936&query=cof&explain=true&bridge http/1.1" 200 2476

我想要的弹性索引字段如下:

  1. client_ip => type必须与kibana用于IP映射的内容兼容。
  2. 时间戳=>日期时间格式。=>日志的时间
  3. 方法=>文本=>被调用的方法,例如GET,POST
  4. 版本=>十进制数=>例如1.2 / 1.0(在示例日志中为v1.2)
  5. 用户名=>文本=>它是username=(在示例日志中为pradeep.pgu)之后的文本
  6. LOCATIOn => geo_point type =>该值同时具有纬度和经度,以便kibana可以在地图上绘制它们。
  7. search_query => text =>被搜索的内容(在示例中,来自两个字段“ keyword =“或” query =“)。两个字段中的任何一个都将存在,而一个字段将存在,必须使用其值。
  8. response_code => number =>响应代码。(示例中为200)
  9. data_transfered => number =>传输的数据量(样本中的最后一个数字)。

这样的事情有可能吗?gork过滤器是否对此有规定?问题是参数不是特定于订单的。

大佬总结

以上是大佬教程为你收集整理的logstash Apache日志的自定义日志过滤器全部内容,希望文章能够帮你解决logstash Apache日志的自定义日志过滤器所遇到的程序开发问题。

如果觉得大佬教程网站内容还不错,欢迎将大佬教程推荐给程序员好友。

本图文内容来源于网友网络收集整理提供,作为学习参考使用,版权属于原作者。
如您有任何意见或建议可联系处理。小编QQ:384754419,请注明来意。