当前位置: 首页 > 知识库问答 >
问题:

pyspark应用程序的日志记录-保存在哪里?

徐卓
2023-03-14

我有一个PySpark作业,它是使用SparkSubmitoOperator通过气流提交给纱线的。在python文件的测试中。py我有以下日志记录:

import logging
logger = logging.getLogger("myapp")
logger.info("this is to log")

操作器看起来像这样:

spark_etl= SparkSubmitOperator(
     task_id = "etl_job",
     name = "transform files",
     application = "test.py",
     .... 

我在Yarn应用程序管理器中检查了应用程序日志,但日志没有打印出来。我检查了这个气流任务的日志,也没有打印出来。您能帮我了解PySpark应用程序日志是如何/在哪里保存的吗?非常感谢您的帮助。

共有1个答案

富建章
2023-03-14

当您向Thread提交PySpark/Spark作业时,您的代码将在Spark创建的容器中执行。在运行时,将在容器内初始化日志记录,并将容器内的所有文件标记为“临时”,直到应用程序完成运行,然后将其删除。

除了您提交的作业状态之外,YARN不会将任何消息传输回Spark驱动程序。

查看此项以获取更多详细信息:Spark on YARN中的日志在哪里?

 类似资料:
  • 需要帮助...我在这里做错了什么???我相信它确实从应用程序属性文件中读取路径和文件名。但我不认为它读取了logback.xml或logback-spring.xml 我做了一些研究,发现了许多问题/答案。但是我想每个人都说要把logback xml放在资源中,把路径和文件名放在application.properties.我知道这很简单,但是在某个地方遗漏了一些东西… 提前谢谢!! 应用程序属性

  • 我有一个使用Spring Boot开发的微服务。应用程序部署在pivotal cloud Foundry。我已经在logback.xml中设置了日志级别,它是应用程序的一部分。为了更改日志级别,我必须更新logback.xml并重新构建/重新部署应用程序。有没有更好的方法做到这一点,而不必重新部署应用程序?有没有办法在PCF中将日志级别设置为env变量?

  • 问题内容: 我在查找日志文件时遇到问题。 我在Windows XP的Eclipse 3.7.1中使用Java日志记录- 。我文件的相关行是: 据我所知,执行以下两行之后: 我的日志文件应该在哪里是整数。 我在该目录中有5个不同的文件,通过,但是它们都没有包含我的日志记录,甚至没有包含今天日期的记录。我进行了一些谷歌搜索,发现“ 跟踪和日志记录”表示我的日志应位于其他位置。那里有一个名为的文件,但实

  • 目前正在使用Spring Boot 2.0.1和Spring Security 5.0.4,用于被动应用程序。 问题是我根本没有任何Spring Security日志。 额外细节: > 我有"logging.level.org.springframework.security=DEBUG"在application.properties.记录器执行器证明了这一点。 由于未经验证的访问正确返回401状

  • 上次我在考虑如何在我们的应用程序中正确使用记录器。例如,我有一个控制器,它返回一个用户流,但在日志中,我看到“Fetch users”日志是由另一个线程记录的,而不是处理管道上的线程,但这是一个好的方法吗? 在这种情况下,使用了两个线程,从我的角度来看,这不是一个好的选择,但我找不到在反应应用程序中使用记录器的好做法。我认为下面的方法更好,因为分配内存是来自处理线程,而不是来自spring web

  • 我目前正在使用Azure'Web应用Linux',它利用docker容器通过私有注册表(Azure容器注册表)托管java应用和python应用,我还没有找到收集和分析应用程序日志的方法容器。 目标是通过OMS、application insight或storage analytics分析应用程序日志。我知道“linux上的Web应用程序”仍处于预览状态,但没有关于当前支持哪些功能的官方文档。 A