当前位置: 首页 > 知识库问答 >
问题:

当内容长度在4013-8092个字符之间时,谷歌云运行网站超时。怎么回事?

尤飞尘
2023-03-14

这个问题发生在Nginx&php-fpm提供的纯PHP文件上。我在使用Symfony开发网站时偶然发现了这个问题,但有问题的内容长度范围是3702-15965(我想知道为什么它不同于普通PHP)。

到目前为止我所尝试的:

  • 超时持续时间为15秒,但我尝试将其增加到300秒,但它仍然超时。所以我猜这是一件无穷无尽的事情。
  • 它看起来与资源无关,因为即使内容长度为500万个字符,它也可以工作。
  • 使用不同的字符创建了各种测试,以查看是否可以对有问题的内容长度范围进行更改。答案是否定的,所有测试的范围都保持不变。
  • 我已经尝试禁用gzip。它没有改变长度范围,但响应发生了变化。Gzip启用响应:“上游请求超时”Gzip禁用响应:完全空白
    null

共有1个答案

唐修诚
2023-03-14

有趣的是,我在写问题的时候解决了这个问题。将fastcgi_buffering off;添加到Nginx配置可以修复该问题。

但是我仍然不明白问题出在哪里,为什么禁用缓冲可以修复它。所以如果有人能解释它,我不介意把这个答案标记为解决方案

 类似资料:
  • 我是新来的JMeter和。我遵循本教程学习JMeter。 我试图在以下条件下进行负载测试。 当我运行测试时,我尝试加载我的网站(在清除缓存后),但加载页面所需的时间比平时多。当浏览器缓存了数据时,不会出现此问题。 有人能告诉我为什么会发生这种情况吗?是因为当1000个用户加载我的网站时,它可能会崩溃还是什么? 任何形式的解释都将不胜感激。

  • null 先谢谢你,并向你致以最诚挚的问候

  • 在处理Udacity深度学习作业时,我遇到了内存问题。我需要切换到云平台。我以前使用AWS EC2,但现在我想尝试谷歌云平台(GCP)。我至少需要8GB内存。我知道如何在本地使用docker,但从未在云上尝试过。 在GCP上运行Tensorflow有现成的解决方案吗? 如果不是,哪个服务(计算引擎或容器引擎)会使您更容易启动? 其他提示也很感激!

  • 目前,我正在从谷歌云存储桶中为我的网站加载图像。 我的印象是,一个多区域的谷歌云存储桶应该是互联网上加载图像的最快方式之一。 然而,这似乎不是这样的情况,当我比较瀑布我的网站上的一个竞争对手的图像加载时间是比我好的联盟。 (我的网站网址aelieve.com) 我的网站加载时间/瀑布 比赛加载时间(比赛网址mopro.com)

  • 经过长时间的调查,问题似乎是长时间运行的请求超时,并且在NodeJS中再次调用endpoint。没有来自浏览器的新网络请求。我做了一些测试,2分钟后再次调用endpoint。我读到NodeJS中http请求的默认超时时间为2分钟。 https://nodejs.org/docs/latest-v12.x/api/http.html#http_server_timeout 我使用的是NestJS(有

  • 问题内容: 数据如下所示: 我希望它看起来像这样: 摆脱一个或另一个很简单。 这: 给我这样的建议:倡议:可信来源倡议:及时的倡议:数据库规范化 还有这个: 给我这个: 很难弄清楚如何将两者结合起来。 问题答案: 只是使用怎么样? 或者,如果您不知道前缀有多长时间: 这是一个。