当前位置: 首页 > 知识库问答 >
问题:

如何在压缩文件中的文件夹中打开多个csv文件

赵元白
2023-03-14

压缩文件-->10个文件夹--每个文件夹>20个csv文件

    null

尝试了以下代码,但不起作用

import pandas as pd
import os
import glob
     
myzip=zipfile.ZipFile("C:/xxx/xxx/xxx/xxx/2021-01.zip")
for fname in myzip.namelist():
    if 'csv' not in fname:
        pathname = "C:/xxx/xxx/xxx/xxx/2021-01.zip/" + fname
        path = os.getcwd()
        csv_files = glob.glob(os.path.join(pathname, "*.csv"))  
     
        for f in csv_files:
            # read the csv file
            df = pd.read_csv(f)

            # print the location and filename
            print('Location:', f)
            print('File Name:', f.split("\\")[-1])

            # print the content
            print('Content:')
            display(df)
            print()

共有1个答案

阴礼骞
2023-03-14

如果不需要处理压缩文件,可以先解压它们:

import zipfile
with zipfile.ZipFile(path_to_zip_file, 'r') as zip_ref:
    zip_ref.extractall(directory_to_extract_to)

然后正常使用提取的文件夹。

 类似资料:
  • 我在on文件夹的几个zip文件中有几个csv文件,例如: null zip中的一个csv是这样工作的: 你知道如何优化这个循环吗?

  • 我对Spark和Scala是新手。我们将广告事件日志文件格式化为CSV,然后使用PKZIP进行压缩。我已经看到了许多关于如何使用Java解压缩压缩文件的示例,但是如何使用Scala for Spark来实现这一点呢?我们最终希望从每个传入文件中获取、提取并加载数据到Hbase目标表中。也许这可以用HadooprDD来完成吗?在这之后,我们将引入Spark streaming来监视这些文件。

  • 我正在使用Julia的ZipFile包来提取和处理csv文件。没问题,但是当我遇到zip文件中的zip文件时,我也想处理它,但是遇到了一个错误。 Julia ZipFile文档如下:https://zipfilejl.readthedocs.io/en/latest/ 对如何做到这一点有什么想法吗?

  • 问题内容: 我正在尝试压缩包含子文件夹的文件夹。尝试压缩名为10-18-2010_4D的文件夹。以上程序以以下异常结束。请提供有关如何解决此问题的建议。 问题答案: 您需要检查文件是否为目录,因为您无法将目录传递给zip方法。 看一下该页面,该页面显示了如何递归压缩给定目录。

  • 我正试图从压缩的csv文件中获取数据。有没有一种方法可以做到这一点,而不解压整个文件?如果没有,我如何解压文件并有效地读取它们?