我正在使用一组持久的函数来完成一些关键的后端逻辑和操作,我希望它们在同一个文件中写入日志,这样我就可以进行更好的分析。对了,我知道我正在使用log.information方法注入的ILog实例,但是每个函数都编写自己的日志文件。
我也在使用application insights,但由于遥测采样,文件中的信息比application insights要多得多。
以下是我的host.json文件的示例:“version”:“2.0”,“logging”:{“fileloggingmode”:“always”,“loglevel”:{“default”:“trace”,“host”:“trace”,“function”:“trace”},“applicationInsights”:{“samplingsettings”:{“isenabled”:true,“maxTeleMetryItemsperSecond”:20}}},
有没有一种方法可以有一个单一的日志文件?
谢谢
函数可以调用的日志服务怎么样?这将解决并发写入的问题,因为只有一个服务在编辑文件。其次,任何新函数都可以添加相同的逻辑,这样就更快了。
有两个相互调用的持久函数。主配乐- 每个func都有ILogger依赖项,并在函数开始和函数结束时登录。由于某种原因,两个编排器都重复了“on start”消息。(见图)活动没有这种效果。(见图)多次运行下面的示例-同一个故事。 我也相信整个过程已经触发一次。 这是编排器中的错误还是预期的行为?
我试图创建一个用BlobTrigger触发的Azure函数。当我向目标容器添加新文件时,我可以通过查看调用来看到函数的运行,在Azure portal上的Monitor中显示触发时间和状态“Success”。然而,除了“已连接!”之外,日志中没有出现任何内容欢迎文本。 这是样板运行。我尝试过的csx有点修改,也有点修改: 和 function.json(我已向其添加了具有相同路径的输入绑定): 我
有没有一种方法可以在不更新host.json文件的情况下覆盖Azure函数应用程序的默认日志级别?我希望我的函数只在dev环境中将跟踪日志传递给应用程序洞察。我在想,如果一个环境变量可以设置,函数将知道什么时候传递日志。
我正在使用网络逻辑10.3。我正在尝试配置一个持久订阅,其中包含由 jdbc 存储(在 Oracle DB 中)支持的持久消息。我有一个主题,MDB 正在作为持久订阅者侦听该主题。在场景-1下:如果我发送消息,它会命中MDB。 在场景2中:我挂起了MDB,希望发送到主题的消息只要不被MDB(它是唯一注册的持久订阅者)使用,就会一直存在。但是当我向主题发送消息时,它短暂地出现在那里,然后就消失了(我
我试图使用我用Azure-File类型定义的storageclass动态提供存储。我尝试为storageAccount和Skuname在storageclass中设置参数。下面是我使用storageAccount集的示例。 storageclass创建成功,但是,当我试图使用这个存储类创建持久卷声明时,持久卷创建失败,出现以下错误: 下面是我的persistentvolumeclaim的代码 下面
我正在将日志消息写入Kafka Topic,我希望此主题的保留是永久的。我在Kafka和Kafka Connect(_schemas、连接-配置、连接-状态、连接-偏移等)中看到,有一些特殊主题不会因日志保留时间而删除。如何强制一个主题像这些其他特殊主题一样?是命名约定还是其他属性? 谢啦