我jdbc
在logstash
输入的插件中有这样的MySQL语句。
statement => "SELECT * from TEST where id > :sql_last_value"
我的表没有任何date
或datetime
字段。因此,我尝试通过使用来检查scheduler
每一分钟,以更新索引,是否在表中添加了任何新行。
我应该只能更新新记录,而不能更新现有记录中的现有值更改。为此,我需要进行以下logstash
输入:
input {
jdbc {
jdbc_connection_string => "jdbc:mysql://myhostmachine:3306/mydb"
jdbc_user => "root"
jdbc_password => "root"
jdbc_validate_connection => true
jdbc_driver_library => "/mypath/mysql-connector-java-5.1.39-bin.jar"
jdbc_driver_class => "com.mysql.jdbc.Driver"
jdbc_paging_enabled => "true"
jdbc_page_size => "50000"
schedule => "* * * * *"
statement => "SELECT * from mytable where id > :sql_last_value"
use_column_value => true
tracking_column => id
last_run_metadata_path => "/path/.logstash_jdbc_last_run"
clean_run => true
}
}
因此,每当我创建索引并运行该logstash
文件以上传文档时,它就根本不会上传。文档数显示为零。我确保.logstash_jdbc_last_run
在运行logstash
conf文件之前删除了。
logstash控制台输出的一部分:
[2016-11-02T16:33:00,294] [INFO] [logstash.inputs.jdbc](0.002000s)SELECT
count(*)AScount
FROM(SELECT * from TEST,其中id>‘2016-11-02 11:02: 00’)AS
t1
LIMIT 1
并且通过逐分钟检查是正确的来继续进行,但是随后没有得到记录。它是如何工作的?
我想念什么吗?任何帮助,不胜感激。
您需要像这样修改您的logstash配置:
jdbc {
jdbc_connection_string => "jdbc:mysql://myhostmachine:3306/mydb"
jdbc_user => "root"
jdbc_password => "root"
jdbc_validate_connection => true
jdbc_driver_library => "/mypath/mysql-connector-java-5.1.39-bin.jar"
jdbc_driver_class => "com.mysql.jdbc.Driver"
jdbc_paging_enabled => "true"
jdbc_page_size => "50000"
schedule => "* * * * *"
statement => "SELECT * from TEST where id > :sql_last_value"
use_column_value => true
tracking_column => "id"
tracking_column_type => "numeric"
clean_run => true
last_run_metadata_path => "/mypath/.logstash_jdbc_last_run"
}
在您的情况下,最后五个设置很重要。.logstash_jdbc_last_run
即使这样clean_run => true
做,也请确保删除该文件。
问题内容: 我不太清楚当我这样说时会做什么: 我可以稍微了解使用它的原因,因为它不浏览整个数据库表以更新字段,而是仅更新新添加的记录。如我错了请纠正我。 所以我想做的是使用这样创建索引: 一旦执行此操作,文档就根本不会上传到索引。我要去哪里错了? 任何帮助,不胜感激。 问题答案: 如果您的表中有一个时间戳列(例如),则最好使用它代替ID号。这样,当记录更新时,您也可以修改该时间戳,输入插件将提取记
问题内容: 我正在考虑使用Logstash和SqlServer作为数据源来实现ES。我最初使用river来从Sql服务器读取数据,但是我团队中的一位开发人员建议使用Logstash。任何人都可以指向有关Logstash和SQLServer入门的指南。我的目标是使用elasticsearch进行搜索。 谢谢 问题答案: 到目前为止,还没有用于读取SQL的Logstash API。对于受支持的输入AP
问题内容: 我有一个格式的JSON: 我正在尝试使用logstash解析此JSON。基本上,我希望Logstash输出是可以使用kibana进行分析的key:value对的列表。我认为可以开箱即用。从大量的阅读中,我了解到我必须使用grok插件(我仍然不确定json插件的用途)。但是我无法获得所有领域的事件。我收到多个事件(甚至对于JSON的每个属性都一个)。像这样: 我应该使用多行编解码器还是j
问题内容: 通过使用,我们可以向Logstash添加新字段。 但是,在这里,我想知道如何为该特定领域设置分析仪。 例如:,我有一个新的id字段,其字段类似于,但Elasticsearch提供的常规分析器会将其分为和。因此,我无法将术语功能有效地应用于该特定领域并使之有用。 在这里,对于ID字段,我想应用我自己的自定义分析器,该分析器不标记值,而是应用小写过滤器。 如何在logstash中完成此操作
我正在尝试使用logstash配置在kibana中可视化mongodb数据。下面是我的配置。我在终端中得到一些输出,它永远循环。我看不到由配置文件中提到的名称创建的任何索引,如果索引是生成的,也没有任何数据。在discover选项卡中没有匹配的结果。如何在Kibana中使配置可视化数据? http://localhost:9200/ayesha_logs/_search?漂亮 终端日志:D,[20
无法在linux上使用ElasticSearch映射logstash 我只是运行下面的命令,它显示了docker上所有正在运行的图像 sudo docker ps 输出: 我只想将logstash链接到弹性搜索并尝试运行以下命令 命令: 输出: 989e2a8f4d9fd972c4f2102d726a68877c989b546800899abbb8c382fb62f04c logstash。形态: