当前位置: 首页 > 知识库问答 >
问题:

在Excel 2016中打开CSV文件

麻阳
2023-03-14

我新安装了Excel 2016,它讨厌CSV文件。它以一栏旗杆风格打开它们,沿着A栏向下,可以看到逗号和语音标记。

突出点:

>

我可以在笔记本电脑上创建CSV文件,保存这些文件,然后在笔记本电脑上再次打开它们,一切正常。

即使在记事本中打开它,保存下来,希望某种文件格式正常化,但仍然没有什么好处。

我比较了区域设置和Excel中几乎所有的设置。

我尝试将文件重命名为TXT,它打开了文本文件转换对话框,我选择了逗号分隔。第一次它忽略了这一点,仍然得到了A列中的所有内容,第二次尝试,实际上是有效的,然而,这是一个裤子解决方案,我希望能够在不保存为TXT的情况下以本机方式打开CSV文件,我每天使用许多不同的文件。

有人有什么想法吗?

提前谢谢。

共有3个答案

仉峻
2023-03-14

对我来说,解决办法是:

数据

然后可以定义csv文件的所有导入设置。

许自强
2023-03-14

我已经找到了一种将凌乱的CSV文件保存为漂亮的表格格式的方法,但我不确定它是否适用于您的情况。

数据-

通过以这种方式打开CSV文件,将出现一个弹出的“查询编辑器”窗口,其中包含一个组织良好的表格格式,您可以在其中编辑、保存并加载到excel表格中。

我希望这有帮助。

戴高远
2023-03-14

CSV文件是字符分隔的值文件,不一定是逗号分隔的。对于世界上一半以上的人来说,分隔符是分号(;),不是逗号(,)

Excel 2016正确尊重Windows区域设置,并使用指定的列表分隔符字符

一种解决方案是将列表分隔符属性的区域设置更改为希望Excel默认使用的字符,例如逗号(,)

这可以在操作系统控制面板,区域设置,附加设置,列表分隔符下更改

出于各种原因,有些人似乎对他们最常使用的文化有不正确的区域设置,因此使用分号作为默认分隔符

如果您不希望将操作系统区域设置更改为您认为CSV文件的正常设置,您可以使用文件/选项/高级菜单下的使用系统分隔符复选框更改Excel中的默认行为

如果每次打开CSV文件时都需要自定义选项,请使用“数据/来自文本”菜单,但对于许多文件来说,这会变得缓慢而笨拙

CSV参考:

  • https://en.wikipedia.org/wiki/Decimal_separator(见世界地图使用逗号作为小数点分隔符,这是非常常见的,因此CSV经常使用分号分隔符)
  • https://data-gov.tw.rpi.edu/wiki/CSV_files_use_delimiters_other_than_commas
  • https://en.wikipedia.org/wiki/Comma-separated_values(规格点3)
  • https://ec.europa.eu/esco/portal/escopedia/Comma-separated_values_%28CSV%29
  • https://parse-o-matic.com/parse/pskb/CSV-File-Format.htm
 类似资料:
  • 我正在导入一个扩展名为csv的文件,并读取行以生成一个列表。 在IDE Spyder中,我在一个选项卡中打开了passwords.csv。当我运行程序时,它给我一个错误,说没有这样的文件或目录。

  • 我运行了以下脚本(https://github.com/FXCMAPI/FXCMTickData/blob/master/TickData34.py)并在末尾添加以下行以下载文件: 然后,我尝试使用pandas打开文件,如下所示: 然而,我得到的是: 为什么数据框是空的? 如果我在TextEdit上打开文件,前几行实际上如下所示:

  • 在Microsoft Excel for Mac 2011 14.1.0版中正确打开文件时遇到问题。文件将打开,但将分隔符设置为逗号的对话框不会出现,因此所有列都用逗号连接。有没有办法让Excel识别逗号分隔符?

  • 我有一堆csv文件,我正在熊猫中加载,很好,但有一个文件出现了问题,我以这种方式打开它: 错误: 文件“/Library/Frameworks/Python.framework/Versions/2.7/lib/python2.7/site packages/pandas/core/frame.py”,第1268行,from_csv encoding=encoding,tupleize_cols=

  • 我对Spark和Scala是新手。我们将广告事件日志文件格式化为CSV,然后使用PKZIP进行压缩。我已经看到了许多关于如何使用Java解压缩压缩文件的示例,但是如何使用Scala for Spark来实现这一点呢?我们最终希望从每个传入文件中获取、提取并加载数据到Hbase目标表中。也许这可以用HadooprDD来完成吗?在这之后,我们将引入Spark streaming来监视这些文件。

  • 压缩文件-->10个文件夹--每个文件夹>20个csv文件 null 尝试了以下代码,但不起作用