当前位置: 首页 > 编程笔记 >

8段用于数据清洗Python代码(小结)

鲁俊友
2023-03-14
本文向大家介绍8段用于数据清洗Python代码(小结),包括了8段用于数据清洗Python代码(小结)的使用技巧和注意事项,需要的朋友参考一下

最近,大数据工程师Kin Lim Lee在Medium上发表了一篇文章,介绍了8个用于数据清洗的Python代码。

数据清洗,是进行数据分析和使用数据训练模型的必经之路,也是最耗费数据科学家/程序员精力的地方。

这些用于数据清洗的代码有两个优点:一是由函数编写而成,不用改参数就可以直接使用。二是非常简单,加上注释最长的也不过11行。在介绍每一段代码时,Lee都给出了用途,也在代码中也给出注释。大家可以把这篇文章收藏起来,当做工具箱使用。

涵盖8大场景的数据清洗代码

这些数据清洗代码,一共涵盖8个场景,分别是:

删除多列、更改数据类型、将分类变量转换为数字变量、检查缺失数据、删除列中的字符串、删除列中的空格、用字符串连接两列(带条件)、转换时间戳(从字符串到日期时间格式)

删除多列

在进行数据分析时,并非所有的列都有用,用df.drop可以方便地删除你指定的列。

def drop_multiple_col(col_names_list, df): 

  AIM  -> Drop multiple columns based on their column names 

  INPUT -> List of column names, df

  OUTPUT -> updated df with dropped columns 
  ------

  df.drop(col_names_list, axis=1, inplace=True)
  return df

转换数据类型

当数据集变大时,需要转换数据类型来节省内存。

def change_dtypes(col_int, col_float, df): 

  AIM  -> Changing dtypes to save memory

  INPUT -> List of column names (int, float), df

  OUTPUT -> updated df with smaller memory 
  ------

  df[col_int] = df[col_int].astype( int32 )
  df[col_float] = df[col_float].astype( float32 )

将分类变量转换为数值变量

一些机器学习模型要求变量采用数值格式。这需要先将分类变量转换为数值变量。同时,你也可以保留分类变量,以便进行数据可视化。

def convert_cat2num(df):
  # Convert categorical variable to numerical variable
  num_encode = { col_1 : { YES :1, NO :0},
          col_2  : { WON :1, LOSE :0, DRAW :0}} 
  df.replace(num_encode, inplace=True) 

检查缺失数据

如果你要检查每列缺失数据的数量,使用下列代码是最快的方法。可以让你更好地了解哪些列缺失的数据更多,从而确定怎么进行下一步的数据清洗和分析操作。

def check_missing_data(df):
  # check for any missing data in the df (display in descending order)
  return df.isnull().sum().sort_values(ascending=False)

删除列中的字符串

有时候,会有新的字符或者其他奇怪的符号出现在字符串列中,这可以使用df[‘col_1'].replace很简单地把它们处理掉。

def remove_col_str(df):
  # remove a portion of string in a dataframe column - col_1
  df[ col_1 ].replace(, , regex=True, inplace=True)

  # remove all the characters after &# (including &#) for column - col_1
  df[ col_1 ].replace( &#.* , , regex=True, inplace=True)

删除列中的空格

数据混乱的时候,什么情况都有可能发生。字符串开头经常会有一些空格。在删除列中字符串开头的空格时,下面的代码非常有用。

def remove_col_white_space(df):
  # remove white space at the beginning of string 
  df[col] = df[col].str.lstrip()

用字符串连接两列(带条件)

当你想要有条件地用字符串将两列连接在一起时,这段代码很有帮助。比如,你可以在第一列结尾处设定某些字母,然后用它们与第二列连接在一起。根据需要,结尾处的字母也可以在连接完成后删除。

def concat_col_str_condition(df):
  # concat 2 columns with strings if the last 3 letters of the first column are pil
  mask = df[ col_1 ].str.endswith( pil , na=False)
  col_new = df[mask][ col_1 ] + df[mask][ col_2 ]
  col_new.replace( pil ,  , regex=True, inplace=True) # replace the pil with emtpy space

转换时间戳(从字符串到日期时间格式)

在处理时间序列数据时,我们很可能会遇到字符串格式的时间戳列。这意味着要将字符串格式转换为日期时间格式(或者其他根据我们的需求指定的格式) ,以便对数据进行有意义的分析。

def convert_str_datetime(df): 

  AIM  -> Convert datetime(String) to datetime(format we want)

  INPUT -> df

  OUTPUT -> updated df with new datetime format 
  ------

  df.insert(loc=2, column= timestamp , value=pd.to_datetime(df.transdate, format= %Y-%m-%d

以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持小牛知识库。

 类似资料:
  • 理想中,我们获取的数据都是一样的格式,可是现实中,会有许多脏数据,有时候是数据太冗余,有时候是数据缺失,有时候是同一种类数据拥有不同的数据格式。比如生日,有的人使用阿拉伯数字,有的人使用英文简写,有的人则是加入了中文字符。 如果只是简单的某一列数据问题,我们可以写一个脚本进行处理,可是,当数据太复杂,数据量太大,我们自己编写脚步就太浪费时间和精力了。有没有什么可视化工具,可以像操作Excel表格很

  • 本文向大家介绍python3常用的数据清洗方法(小结),包括了python3常用的数据清洗方法(小结)的使用技巧和注意事项,需要的朋友参考一下 首先载入各种包: 读入数据:这里数据是编造的 本案例的真实数据是这样的:   对数据进行多方位的查看: 实际情况中可能会有很多行,一般用head()看数据基本情况 也可以从视觉上直观查看缺失值: 对连续型数据和离散型数据分开处理: 对于离散型部分:   对

  • 本文向大家介绍python 数据清洗之数据合并、转换、过滤、排序,包括了python 数据清洗之数据合并、转换、过滤、排序的使用技巧和注意事项,需要的朋友参考一下 前面我们用pandas做了一些基本的操作,接下来进一步了解数据的操作, 数据清洗一直是数据分析中极为重要的一个环节。 数据合并 在pandas中可以通过merge对数据进行合并操作。 结果为: 结果为: 结果为: 可以看到data1和d

  • 本文向大家介绍python数据清洗系列之字符串处理详解,包括了python数据清洗系列之字符串处理详解的使用技巧和注意事项,需要的朋友参考一下 前言 数据清洗是一项复杂且繁琐(kubi)的工作,同时也是整个数据分析过程中最为重要的环节。有人说一个分析项目80%的时间都是在清洗数据,这听起来有些匪夷所思,但在实际的工作中确实如此。数据清洗的目的有两个,第一是通过清洗让数据可用。第二是让数据变的更适合

  • 本文向大家介绍python实现数据清洗(缺失值与异常值处理),包括了python实现数据清洗(缺失值与异常值处理)的使用技巧和注意事项,需要的朋友参考一下 1。 将本地sql文件写入mysql数据库 本文写入的是python数据库的taob表 其中总数据为9616行,列分别为title,link,price,comment 2。使用python链接并读取数据 查看数据概括 说明数据的导入是正确的,

  • 数据清洗和特征挖掘的工作是在灰色框中框出的部分,即“数据清洗=>特征,标注数据生成=>模型学习=>模型应用”中的前两个步骤。 灰色框中蓝色箭头对应的是离线处理部分。主要工作是 从原始数据,如文本、图像或者应用数据中清洗出特征数据和标注数据。 对清洗出的特征和标注数据进行处理,例如样本采样,样本调权,异常点去除,特征归一化处理,特征变化,特征组合等过程。最终生成的数据主要是供模型训练使用。 灰色框中