当前位置: 首页 > 知识库问答 >
问题:

如何在本地搜索一个巨大的JSON文件?

薛弘厚
2023-03-14
$.getJSON("recipeList.json", (json) => {
    console.log("It Works !"); 
});

这似乎不起作用:没有console.log,控制台中只有一个错误,显示

[违反]“加载”处理程序用了1142毫秒


我是否可以通过这个文件进行搜索,尽管它很大,而且不用花太多时间?

我也有联机托管的文件的url(https://s3.amazonaws.com/openrecipes/20170107-061401-recipeItems.json.gz),但我似乎无法连接到它(CORS关于没有允许我的头的错误)。

共有1个答案

江宏深
2023-03-14

这是一个很大的文件--30 MB和135 MB未压缩。

我相信您将需要服务器端的帮助。

也许你可以下载这个文件,然后把它的数据插入数据库(例如MySQL)

然后创建一个API,您将从客户端调用该API,通过提供的搜索项从DB获取数据。

 类似资料:
  • 问题内容: 我有一个巨大的文本文件(〜1GB),可惜我使用的文本编辑器无法读取这么大的文件。但是,如果我可以将其分为两部分或三部分,那就没问题了,因此,作为练习,我想用python编写一个程序来做到这一点。 我想让程序执行的操作是找到文件的大小,将该数字分成多个部分,然后对于每个部分,逐块读取至该点,写入 文件名.nnn输出文件,然后读取- 到下一个换行符并将其写入,然后关闭输出文件,等等。显然,

  • 有没有一种方法可以使用VS代码在一个目录中的所有文件中搜索文本?

  • 问题内容: 我有一个150MB的单张excel文件,使用以下命令在功能非常强大的计算机上打开大约需要7分钟: 有什么办法可以更快地打开excel文件吗?我愿意接受甚至非常古怪的建议(例如hadoop,spark,c,java等)。理想情况下,如果这不是白日梦,我正在寻找一种在30秒内打开文件的方法。另外,上面的示例使用的是python,但不一定必须是python。 注意:这是来自客户端的Excel

  • 我在解析一个巨大的json文件(200mb)时遇到问题。起初,我尝试使用JACKSON将json解析为一棵树。然而,我遇到了堆大小问题。出于某种原因,增加堆大小不是一个选项。 JSON格式: 我想做的是产生像这样的弦 有没有办法做到这一点而不出现堆问题? 在python中,有一种简单的方法可以做到这一点,而且没有堆问题(没有JVM) 一些想法:我可能不需要使用杰克逊树方法,因为我只想要字符串。流媒

  • 我的问题是: > 如何使其与较大的文件一起工作? 有什么办法能让它快一点吗? 我的电脑有8GB的RAM,运行64位Windows 7,处理器是3.40GHz(不确定你需要什么信息)。