我的源数据在一个TSV文件中,包含6列和超过200万行。
这是我要完成的工作:
以下是我想到的。
我的问题:这是一种有效的方法吗?尝试进行200万行时,它似乎很密集。
首先,我制作了一个示例选项卡单独的文件以供使用,并将其命名为“ sample.txt”。它是基本的,只有四行:
Row1_Column1 Row1-Column2 Row1-Column3 Row1-Column4 2 Row1-Column6
Row2_Column1 Row2-Column2 Row2-Column3 Row2-Column4 3 Row2-Column6
Row3_Column1 Row3-Column2 Row3-Column3 Row3-Column4 1 Row3-Column6
Row4_Column1 Row4-Column2 Row4-Column3 Row4-Column4 2 Row4-Column6
然后我有这段代码:
import csv
with open('sample.txt','r') as tsv:
AoA = [line.strip().split('\t') for line in tsv]
for a in AoA:
count = int(a[4])
while count > 0:
with open('sample_new.csv', 'a', newline='') as csvfile:
csvwriter = csv.writer(csvfile, delimiter=',')
csvwriter.writerow([a[2], a[3]])
count = count - 1
您应该使用该csv
模块读取制表符分隔的值文件。不要 不
读入内存中一气呵成。毕竟,您阅读的每一行都有将行写入输出CSV文件所需的所有信息。始终保持打开输出文件。
import csv
with open('sample.txt', newline='') as tsvin, open('new.csv', 'w', newline='') as csvout:
tsvin = csv.reader(tsvin, delimiter='\t')
csvout = csv.writer(csvout)
for row in tsvin:
count = int(row[4])
if count > 0:
csvout.writerows([row[2:4] for _ in range(count)])
或者,使用itertools
模块重复以下操作itertools.repeat()
:
from itertools import repeat
import csv
with open('sample.txt', newline='') as tsvin, open('new.csv', 'w', newline='') as csvout:
tsvin = csv.reader(tsvin, delimiter='\t')
csvout = csv.writer(csvout)
for row in tsvin:
count = int(row[4])
if count > 0:
csvout.writerows(repeat(row[2:4], count))
我想读取一个csv文件,清理它,然后用Apache Beam Dataflow将结果写出csv。目的是使文件可加载到BigQuery中。清理规则是简单地用双引号转义双引号。我的清洁规则管用。我很难把它并入管道。我正在寻求关于我的清洁功能应该返回什么以及如何通过管道调用它的建议。
我在过去使用过这段代码来编写和读取xml文件。这次我想编写一些加密生成的XML,然后读取它并在内部进行处理。我会发布代码,也许有人能发现问题。 当我测试解密时,我已经能够输出一个有连续行空字符代码的文件。加密文件似乎包含数据和不同数据量的大小变量。 请帮忙,谢谢!
问题内容: 我想从标准输入中读取CSV文件,并处理每一行。我的CSV输出代码逐行写入行,但是我的阅读器在迭代行之前等待流终止。这是模块的限制吗?难道我做错了什么? 我的读者代码: 我的作者代码: 输出: 如您所见,所有打印语句都在同一时间执行,但是我希望会有500ms的间隔。 问题答案: 如文档中所述, 为了使循环成为遍历文件行的最有效方法(一种非常常见的操作),该方法使用了隐藏的预读缓冲区。 您
问题内容: 我想以编程方式编辑python源代码。基本上,我想读取一个文件,生成AST,然后写回修改后的python源代码(即另一个文件)。 有多种方法可以使用标准python模块(例如或)来解析/编译python源代码。但是,我认为它们都不支持修改源代码(例如删除此函数声明)然后写回修改后的python源代码的方法。 更新:我想这样做的原因是我想为python编写一个Mutation测试库,主要
问题内容: 这是我的CSV 第一行是列的名称。我试过fgetcsv(),但所有要做的就是显示所有行。而不是我想要的。我该怎么做? 因此,如果我将数据最后放入数组中,我将能够打印出表格格式的数据,就像excel中所示。 谢谢 这是我的样本: 这是我的输出:(我将$ row放到pre中,以便可以显示它) 问题答案: 要一次阅读所有内容,可以使用: 要将所有行变成一个很好的关联数组,可以应用:
问题内容: 我有一个看起来像下面的文档: data.txt 我使用正则表达式对其进行了处理,并返回了如下的新处理文档: 这将返回已处理的MyClass的列表。可以并行运行,一切正常。 问题是我现在有这个: data2.txt 因此,我需要以某种方式加入正在从流中读取的行,直到出现新的匹配项为止。(有点像缓冲区吗?) 我尝试收集字符串,然后收集MyClass(),但没有成功,因为我实际上无法拆分流。