我正在运行Aiflow 1.9
我运行了一个执行bash操作符的DAG
bash_command="python /home/ubuntu/airflow/scripts/b.py "
一切都很好,但是当我去我的任务日志,我看到这些:
[2018-06-17 08:00:10,273] {base_task_runner.py:98} INFO - Subtask: [2018-06-17 08:00:10,272] {bash_operator.py:101} INFO - log4j:WARN No appenders could be found for logger (com.amazonaws.athena.jdbc.AthenaDriver).
[2018-06-17 08:00:10,273] {base_task_runner.py:98} INFO - Subtask: [2018-06-17 08:00:10,273] {bash_operator.py:101} INFO - log4j:WARN Please initialize the log4j system properly.
[2018-06-17 08:00:10,273] {base_task_runner.py:98} INFO - Subtask: [2018-06-17 08:00:10,273] {bash_operator.py:101} INFO - log4j:WARN See http://logging.apache.org/log4j/1.2/faq.html#noconfig for more info.
似乎是Apache未处理的问题?
您是否尝试过生成定制的log4jxml配置文件并直接指向它?
你可能会发现这个答案很有帮助。
编辑:正如在其他问题中看到的,警告似乎与AWS Athena JDBC有关。气流记录器可能已经足够详细,可以提取它,但警告本身与此无关。
我正在评估我当前的气流部署从Celery executor到Kubernetes(K8s)executor的迁移,以利用Pods提供的资源动态分配和任务隔离。 我很清楚,我们可以使用本机的KubernetesPodOperator通过K8s Executor在K8s集群上运行任务。但是,我找不到关于K8s executor与其他操作符(如bash和Athena)之间兼容性的信息。 这里的问题是,是
我试图创建和运行一个豆荚使用气流kubernetes豆荚操作员。下面的命令被尝试并确认有效,我正试图在本地使用kubernetes pod操作符复制相同的命令 有没有办法将serviceaccount标志传递给airflow kubernetes操作员? 谢了!
我的狗看起来像这样 我的DAG正在执行一个jar文件。jar文件包含运行数据流作业的代码,该作业将数据从GCS写入BQ。jar本身执行成功。 当我尝试执行airflow作业时,我看到以下错误 我做了更多的挖掘,我可以看到气流 正如您可以看到jobs之后的最后一个参数是asia east,因此我觉得airflow job正在尝试使用我在默认参数中提供的区域来搜索数据流job的状态。不确定这是否是正在
我试图在一个模板化的类中获得一个友元函数来编译,但是错误信息和警告我不理解。我已经对这个问题进行了论证。我得到的错误是: prog.cpp:8:57:错误:非类、非变量部分专门化C运算符(const B 掠夺。cpp:15:59:警告:友元声明'C运算符(常量B prog.cpp:15:59:注意:(如果这不是您想要的,请确保函数模板已经声明并添加
我有下面的代码,它基本上将表从MySql数据库读入Google云存储,然后读入Google大查询。 我已将连接详细信息以及MySQL和GCP的服务帐户都包含在该应用程序的admin选项卡中。 我看到MySql数据库中的表time_zone被复制到云存储桶airflow_1。但是当气流试图将数据从云存储复制到BigQuery时,它会抱怨无法找到云存储桶。以下是日志详细信息:
这个。 (点)运算符和 - >(箭头)运算符用于引用类,结构和联合的各个成员。 点运算符应用于实际对象。 箭头运算符与指向对象的指针一起使用。 例如,考虑以下结构 - struct Employee { char first_name[16]; int age; } emp; The (.) dot operator 要将值“zara”分配给对象emp的first_name成员,