本文主要介绍了pandas针对excel处理的实现,分享给大家,具体如下:
import padas df = pd.read_csv("") #读取文件 pd.read_clipboard() #读取粘贴板的内容 #解决数据显示不完全的问题 pd.set_option('display.max_columns', None) pd.set_option('display.max_rows', None) #获取指定单元格的值 datefirst = config.iloc[0,1] datename = config.iloc[0,2] #新建一列two,筛选料号一列的前俩个 sheet["two"] = sheet["料号"].apply(lambda x:x[:2])
df["dog"] = df["dog"].replace(-1,0) #数值替换 #apply理解函数作为一个对象,可以作为参数传递给其它参数,并且能作为函数的返回值 df["price_new"] = df["price"].apply(lambda pri:pyi.lower()) #新列对老列处理 df["pricee"] = df["price"] *2 #新列
data = df.head() #默认读取前行 df = pd.read_excel("lemon.xlsx",sheet_name=["python","student"]) #可以通过表单名同时读取多个 df = pd.read_excel("lemon.clsx",sheet_name=0) data = df.values #获取所有的数据 print("获取到所有的值:\n{0}".format(data)) #格式化输出 df = pd.read_excel("lemon.xlsx") data = df.ix[0].values #表示第一行,不包含表头 print("获取到所有的值:\n{0}".format(data)) #格式化输出
loc[row,cloumn] 先行后列 : 是全部行或列,一般多行可以用中括号,连续的可以用a:c等 iloc[index,columns] 行索引,列索引,索引都是从0开始,用法是一样的
多行嵌套 df = pd.read_excel("lemon.xlsx") data = df.loc[1,2] #读取指定多行的话,就要在ix[]里面嵌套列表指定行数 print("获取到所有的值:\n{0}".format(data)) #格式化输出 多行 df=pd.read_excel('lemon.xlsx') data=df.ix[1,2]#读取第一行第二列的值,这里不需要嵌套列表 print("读取指定行的数据:\n{0}".format(data)) 多行多列嵌套 df=pd.read_excel('lemon.xlsx') data=df.ix[[1,2],['title','data']].values#读取第一行第二行的title以及data列的值,这里需要嵌套列表 print("读取指定行的数据:\n{0}".format(data)) 获取所有行和指定列 df=pd.read_excel('lemon.xlsx') data=df.ix[:,['title','data']].values#读所有行的title以及data列的值,这里需要嵌套列表 print("读取指定行的数据:\n{0}".format(data))
输出行号并打印输出 df=pd.read_excel('lemon.xlsx') print("输出行号列表",df.index.values) 输出结果是: 输出行号列表 [0 1 2 3] 输出列名并打印输出 df=pd.read_excel('lemon.xlsx') print("输出列标题",df.columns.values) 运行结果如下所示: 输出列标题 ['case_id' 'title' 'data'] 获取指定行数的值 df=pd.read_excel('lemon.xlsx') print("输出值",df.sample(3).values)#这个方法类似于head()方法以及df.values方法 输出值 [[2 '输入错误的密码' '{"mobilephone":"18688773467","pwd":"12345678"}'] [3 '正常充值' '{"mobilephone":"18688773467","amount":"1000"}'] [1 '正常登录' '{"mobilephone":"18688773467","pwd":"123456"}']]
获取指定列的值 df=pd.read_excel('lemon.xlsx') print("输出值\n",df['data'].values) excel数据转字典 df=pd.read_excel('lemon.xlsx') test_data=[] for i in df.index.values:#获取行号的索引,并对其进行遍历: #根据i来获取每一行指定的数据 并利用to_dict转成字典 row_data=df.ix[i,['case_id','module','title','http_method','url','data','expected']].to_dict() test_data.append(row_data) print("最终获取到的数据是:{0}".format(test_data))
把带有空值的行全部去除 df.dropna() 对空置进行填充 df.fillna(value=0) df["price"].fillna(df["price".mean()]) 去除字符串两边的空格 df["city"] = df["city"].map(str.strip) 大小写转换 df["city"] = df["city"].map(str.lower) 更改数据格式 df["price"].fillna(0).astype("int") 更改列的名称 df.rename(columns={"category":"category_size"}) 删除重复项 df["city"].drop_duplicates() df["city"].drop_duplicates(keep="last") 数字修改和替换 df["city"].replace("sh","shanghai") 前3行数据 df.tail(3) 给出行数和列数 data.describe() 打印出第八行 data.loc[8] 打印出第八行[column_1]的列 data.loc[8,column_1] 第四到第六行(左闭右开)的数据子集 data.loc[range(4,6)] 统计出现的次数 data[column_1].value_counts() len()函数被应用在column_1列中的每一个元素上 map()运算给每一个元素应用一个的函数 data[column_1].map(len).map(lambda x : x/100).plot() plot是绘图 apply() 给一个列应用一个函数 applymap() 会给dataframe中的所有单元格应用一个函数 遍历行和列 for i,row in data.iterrows(): print(i,row) 选择指定数据的行 important_dates = ['1/20/14', '1/30/14'] data_frame_value_in_set = data_frame.loc[data_frame['Purchase Date']\ .isin(important_dates), :] 选择0-3列 import pandas as pd import sys input_file = r"supplier_data.csv" output_file = r"output_files\6output.csv" data_frame = pd.read_csv(input_file) data_frame_column_by_index = data_frame.iloc[:, [0, 3]] data_frame_column_by_index.to_csv(output_file, index=False) 添加行头 import pandas as pd input_file = r"supplier_data_no_header_row.csv" output_file = r"output_files\11output.csv" header_list = ['Supplier Name', 'Invoice Number', \ 'Part Number', 'Cost', 'Purchase Date'] data_frame = pd.read_csv(input_file, header=None, names=header_list) data_frame.to_csv(output_file, index=False)
数据合并 1.将表格通过concat()方法进行合并 参数如下: objs(必须参数):参与连接的pandas对象的列表或字典 axis:指明连接的轴向,默认为0 join:选中inner或outer(默认),其它轴向上索引是按交集(inner)还是并集(outer)进行合并 join_axes:指明用于其他N-1条轴的索引,不执行并集/交集运算 keys:与连接对象有关的值,用于形成连接轴向上的层次化索引 verify_integrity:是否去重 ignore_index:是否忽略索引 合并: eg: frames = [df1,df2,df3] result = pd.concat(frames) result = pd.concat(frames,keys=["x","y","z"]) #把每张表来个定义
新增df4表,横向连接到df1表的第2367列,空置补nan index:是新增的行 axis=1是指列 df4 = pd.DataFrame(["B":["sf"],"D":["'sf],index=[2,3,6,7]]) result = pd.concat([df1,df4],axis=1)
将df1和df4横向进行交集合并 result = pd.concat([df1,df4],axis=1,join="inner") 列是增加,行是交集 按照df1的索引进行df1表和df4表的横向索引 pd.concat([df1,df4],axis=1,join_axes=[df1.index]) 列是增加,行以df1为准,空的为NaN 通过append()方法连接表格 result = df1.append(df2) result = df1.append(df4,ignore_index=True) 空格Nan补充 新增一列s1表,并且跟df1进行横向合并 s1 = pd.Series(["1","2","3","4"],name="x") result = pd.concat([df1,s1],axis=1) name是列,serise是一维列表,没有name,他会用索引0开始继续填充 pd.concat([df1,s1],axis=1,ignore_index=True) 表格合并后不保留原来的索引列名 将key作为两张表连接的中介 result = pd.merge(left,right,on="key") result = pd.merge(right,left,on=["key1","key2"]) key1和key2,只要有相同值就行,最后的排列是大的值为key1,小的key2 通过左表索引连接右表 right = pd.DataFrame({"key1":["K0","K2","K1","K2"], "key2":["K0","K1","K0","K0"], "C":["C0","C1","C2","C3"], "D":["D0","D1","D2","D3"]}, index = ["k0","k1","k2"]) result = left.join(right) 以做索引为基准,right没有左索引的用Nan填充 result = left.join(right,how='outer') how:连接方式 on属性在merge中,以k为中心拼接,有相同的就拼 result = pd.merge(left,right,on="K") result = pd.merge(left,right,on="K",suffixes=["_l","_r"]) 更改拼接后的neme属性
# 解决显示不完全的问题 pd.set_option('display.max_columns', None) pd.set_option('display.max_rows', None) config = pd.read_excel("C:\\Users\\Administrator\\Desktop\\数据\\文件名配置.xlsx", dtype=object) datefirst = config.iloc[0, 1] datename = config.iloc[0, 2] dateall = datefirst + r"\\" + datename textfile = config.iloc[1, 1] textname = config.iloc[1, 2] textall = textfile + r"\\" + textname sheet = pd.read_excel(dateall, sheet_name="Sheet2", dtype=object) sheet["two"] = sheet["料号"].apply(lambda x: x[:2]) # 取出不包含的数据 df = sheet[~sheet["two"].isin(["41", "48"])] df1 = df[~df["检验结果"].isin(["未验", "试产验证允收"])] # 删除不需要的列 result = df1.iloc[:, :len(df1.columns) - 1] # 取出包含的数据 DTR561 = result[result["机种"].isin(["DTR561"])] DTR562 = result[result["机种"].isin(["DTR562"])] HPS322 = result[result["机种"].isin(["HPS322"])] HPS829 = result[result["机种"].isin(["HPS829"])] writer = pd.ExcelWriter("C:\\Users\\Administrator\\Desktop\\数据\\数据筛选.xlsx") result.to_excel(writer, sheet_name="全部机种", index=False) DTR561.to_excel(writer, sheet_name="DTR561", index=False) DTR562.to_excel(writer, sheet_name="DTR562", index=False) HPS322.to_excel(writer, sheet_name="HPS322", index=False) HPS829.to_excel(writer, sheet_name="HPS829", index=False) writer.save() print("Data filtering completed")
到此这篇关于pandas针对excel处理的实现的文章就介绍到这了,更多相关pandas excel处理内容请搜索小牛知识库以前的文章或继续浏览下面的相关文章希望大家以后多多支持小牛知识库!
本文向大家介绍Python pandas对excel的操作实现示例,包括了Python pandas对excel的操作实现示例的使用技巧和注意事项,需要的朋友参考一下 最近经常看到各平台里都有Python的广告,都是对excel的操作,这里明哥收集整理了一下pandas对excel的操作方法和使用过程。本篇介绍 pandas 的 DataFrame 对列 (Column) 的处理方法。示例数据请通
本文向大家介绍Python利用pandas处理Excel数据的应用详解,包括了Python利用pandas处理Excel数据的应用详解的使用技巧和注意事项,需要的朋友参考一下 最近迷上了高效处理数据的pandas,其实这个是用来做数据分析的,如果你是做大数据分析和测试的,那么这个是非常的有用的!!但是其实我们平时在做自动化测试的时候,如果涉及到数据的读取和存储,那么而利用pandas就会非常高效,
本文向大家介绍对pandas处理json数据的方法详解,包括了对pandas处理json数据的方法详解的使用技巧和注意事项,需要的朋友参考一下 今天展示一个利用pandas将json数据导入excel例子,主要利用的是pandas里的read_json函数将json数据转化为dataframe。 先拿出我要处理的json字符串: pandas.read_json的语法如下: 第一参数就是json文
主要内容:为什么会存在缺失值?,什么是稀疏数据?,缺失值处理,检查缺失值,缺失数据计算,清理并填充缺失值,删除缺失值在一些数据分析业务中,数据缺失是我们经常遇见的问题,缺失值会导致数据质量的下降,从而影响模型预测的准确性,这对于机器学习和数据挖掘影响尤为严重。因此妥善的处理缺失值能够使模型预测更为准确和有效。 为什么会存在缺失值? 前面章节的示例中,我们遇到过很多 NaN 值,关于缺失值您可能会有很多疑问,数据为什么会丢失数据呢,又是从什么时候丢失的呢?通过下面场景,您会得到答案。 其实在很多时
问题内容: 背景 我刚刚将熊猫从0.11升级到0.13.0rc1。现在,该应用程序会弹出许多新警告。其中之一是这样的: 我想知道这到底是什么意思?我需要改变什么吗? 如果我坚持使用该如何警告quote_df[‘TVol’] = quote_df[‘TVol’]/TVOL_SCALE? 产生错误的功能 更多错误讯息 问题答案: 在SettingWithCopyWarning被创造的标志可能造成混淆的
lab1中对中断的处理实现 (1) 外设基本初始化设置 Lab1实现了中断初始化和对键盘、串口、时钟外设进行中断处理。串口的初始化函数serial_init(位于/kern/driver/console.c)中涉及中断初始化工作的很简单: ...... // 使能串口1接收字符后产生中断 outb(COM1 + COM_IER, COM_IER_RDI); ...... // 通过中断控制