当前位置: 首页 > 面试题库 >

在Logstash中为sql_last_value使用表的ID?

锺霍英
2023-03-14
问题内容

jdbclogstash输入的插件中有这样的MySQL语句。

statement => "SELECT * from TEST where id > :sql_last_value"

我的表没有任何datedatetime字段。因此,我尝试通过使用来检查scheduler每一分钟,以更新索引,是否在表中添加了任何新行。

我应该只能更新新记录,而不能更新现有记录中的现有值更改。为此,我需要进行以下logstash输入:

input {
    jdbc {
        jdbc_connection_string => "jdbc:mysql://myhostmachine:3306/mydb" 
        jdbc_user => "root"
        jdbc_password => "root"
        jdbc_validate_connection => true
        jdbc_driver_library => "/mypath/mysql-connector-java-5.1.39-bin.jar"
        jdbc_driver_class => "com.mysql.jdbc.Driver"
        jdbc_paging_enabled => "true"
        jdbc_page_size => "50000"
        schedule => "* * * * *"
        statement => "SELECT * from mytable where id > :sql_last_value"
        use_column_value => true
        tracking_column => id
        last_run_metadata_path => "/path/.logstash_jdbc_last_run"
        clean_run => true
    }
}

因此,每当我创建索引并运行该logstash文件以上传文档时,它就根本不会上传。文档数显示为零。我确保.logstash_jdbc_last_run在运行logstashconf文件之前删除了。

logstash控制台输出的一部分:

[2016-11-02T16:33:00,294] [INFO] [logstash.inputs.jdbc](0.002000s)SELECT
count(*)AS countFROM(SELECT * from TEST,其中id>‘2016-11-02 11:02: 00’)AS
t1LIMIT 1

并且通过逐分钟检查是正确的来继续进行,但是随后没有得到记录。它是如何工作的?

我想念什么吗?任何帮助,不胜感激。


问题答案:

您需要像这样修改您的logstash配置:

jdbc { 
  jdbc_connection_string => "jdbc:mysql://myhostmachine:3306/mydb" 
  jdbc_user => "root" 
  jdbc_password => "root" 
  jdbc_validate_connection => true 
  jdbc_driver_library => "/mypath/mysql-connector-java-5.1.39-bin.jar" 
  jdbc_driver_class => "com.mysql.jdbc.Driver" 
  jdbc_paging_enabled => "true" 
  jdbc_page_size => "50000" 
  schedule => "* * * * *" 
  statement => "SELECT * from TEST where id > :sql_last_value" 
  use_column_value => true 
  tracking_column => "id" 
  tracking_column_type => "numeric" 
  clean_run => true 
  last_run_metadata_path => "/mypath/.logstash_jdbc_last_run" 
}

在您的情况下,最后五个设置很重要。.logstash_jdbc_last_run即使这样clean_run => true做,也请确保删除该文件。



 类似资料:
  • 问题内容: 我不太清楚当我这样说时会做什么: 我可以稍微了解使用它的原因,因为它不浏览整个数据库表以更新字段,而是仅更新新添加的记录。如我错了请纠正我。 所以我想做的是使用这样创建索引: 一旦执行此操作,文档就根本不会上传到索引。我要去哪里错了? 任何帮助,不胜感激。 问题答案: 如果您的表中有一个时间戳列(例如),则最好使用它代替ID号。这样,当记录更新时,您也可以修改该时间戳,输入插件将提取记

  • 问题内容: 我正在考虑使用Logstash和SqlServer作为数据源来实现ES。我最初使用river来从Sql服务器读取数据,但是我团队中的一位开发人员建议使用Logstash。任何人都可以指向有关Logstash和SQLServer入门的指南。我的目标是使用elasticsearch进行搜索。 谢谢 问题答案: 到目前为止,还没有用于读取SQL的Logstash API。对于受支持的输入AP

  • 问题内容: 我有一个格式的JSON: 我正在尝试使用logstash解析此JSON。基本上,我希望Logstash输出是可以使用kibana进行分析的key:value对的列表。我认为可以开箱即用。从大量的阅读中,我了解到我必须使用grok插件(我仍然不确定json插件的用途)。但是我无法获得所有领域的事件。我收到多个事件(甚至对于JSON的每个属性都一个)。像这样: 我应该使用多行编解码器还是j

  • 问题内容: 通过使用,我们可以向Logstash添加新字段。 但是,在这里,我想知道如何为该特定领域设置分析仪。 例如:,我有一个新的id字段,其字段类似于,但Elasticsearch提供的常规分析器会将其分为和。因此,我无法将术语功能有效地应用于该特定领域并使之有用。 在这里,对于ID字段,我想应用我自己的自定义分析器,该分析器不标记值,而是应用小写过滤器。 如何在logstash中完成此操作

  • 我正在尝试使用logstash配置在kibana中可视化mongodb数据。下面是我的配置。我在终端中得到一些输出,它永远循环。我看不到由配置文件中提到的名称创建的任何索引,如果索引是生成的,也没有任何数据。在discover选项卡中没有匹配的结果。如何在Kibana中使配置可视化数据? http://localhost:9200/ayesha_logs/_search?漂亮 终端日志:D,[20

  • 无法在linux上使用ElasticSearch映射logstash 我只是运行下面的命令,它显示了docker上所有正在运行的图像 sudo docker ps 输出: 我只想将logstash链接到弹性搜索并尝试运行以下命令 命令: 输出: 989e2a8f4d9fd972c4f2102d726a68877c989b546800899abbb8c382fb62f04c logstash。形态: