总共有1000条信息展示,我现在想到的是在前端使用轮询来解决,有没有更好的方案来解决网络慢数据大,我应该在后端怎么处理
后端做分页处理 或者 如果1000条信息 实时性不高就直接在后端做提前缓存,然后从缓存里取, 前端做懒加载 应该能符合你的业务需求,
1000不会很多,是否开启了 gzip 等 压缩内容
nginx 配置
gzip on; gzip_min_length 1024; gzip_buffers 4 8k; gzip_types font/woff text/plain application/javascript application/x-javascript text/css application/xml application/json text/xml application/pdf ;
1)将内容分段后,然后多次给出。
2)类似分页的做法
3)需要辛苦一下前端的童鞋
get:/api/request
rquest:{..."next_page":1,...}
get:/api/request?next_page=1
rquest:{..."next_page":2,...}
get:/api/request?next_page=2
rquest:{..."next_page":null,...}
get:不再继续请求
分页货或分次取
后端流式返回效果不错。就是浏览器请求一次,服务器多次返回,比如每次返回两个页面的内容,先让用户看着,后续慢慢加载完成。
比如用grpc
试试分页。或者2次请求。第一次返回10-20条。不至于页面空白。然后再返回所有数据。
目前一个项目,有展示图表功能,一条计算(有很多计算,结果跟初始设置参数相关)大概几千个case,每个case结果文件类似csv,大概300-500MB。 因为文件较多且较大,直接存OSS对象存储。 现在处理逻辑,根据前端参数,下载相应case文件,然后解析成json,返回前端进行展示。 但整个过程相当慢! 有啥好的优化方案?
由于后端接口不规范,返回的数据格式不统一,导致前端公共组件e-table接口里接收数据时要用多个||进行判断,这样写有一定的风险。 如:关于data.content.iTotalRecords,data里面可能没有content,故data.content.iTotalRecords就有可能发生错误。 希望代码能别出错,并且能在优化一下代码
后端返回双精度数据,前端无法正常显示,js只支持浮点数。除了后台转字符串,前端循环添加toFixed,还有别的好的方法吗?
问题内容: 我正在尝试使用将大文件(> 1 GB)从硬盘复制到USB驱动器。一个描述我正在尝试做的简单脚本是: 在Linux上只需要2-3分钟。但是在Windows下,同一文件上的同一文件副本要花费10-15分钟以上的时间。有人可以解释为什么并给出一些解决方案,最好使用python代码吗? 更新1 将文件另存为test.pySource文件大小为1 GB。目的地目录位于USB驱动器中。使用ptim
所以客户不必等到我的整个文件是处理。 为了试用,我制作了如下示例代码 Rest控制器 阿尔佩什
前端返回的json如下: 请问pojo类(如下图)里面相应变量类型应当如何定义?