Python数据分析常用函数及参数详解,可以留着以备不时之需

您所在的位置:网站首页 做库存经常用到的函数有哪些方法 Python数据分析常用函数及参数详解,可以留着以备不时之需

Python数据分析常用函数及参数详解,可以留着以备不时之需

2024-07-12 10:43| 来源: 网络整理| 查看: 265

利用Python进行数据分析最核心的库就是Pandas,可以说,掌握了Pandas库,Python数据分析就属于中阶水平了。

在《一次简单、完整的全流程数据分析,让我们不再害怕Python 》一文中我们介绍了Python进行数据分析全流程的几个主要函数。但由于实际中的分析需求可能比较复杂,就要求对数据做更加复杂的处理。

所以,我们有必要提前准备一些常用的函数,这些函数不用全部会,知道有这些函数,并做到在我们要实现数据处理逻辑时,知道有什么函数可用就够了。

为了便于学习这些函数,本文按照各自类型进行了分门别类。

几点注意事项

在介绍具体的函数时,说几点注意事项:

初学时最好习惯于写参数名称;根据函数的作用去理解它可以作用于哪种对象,又会返回何种对象;函数(也就是对象的方法)需要有括号,查看对象属性没有括号。axis=i,表示i维进行变化,而其他维度不变。例如,当i=0时,就是说行维度值进行变化,其它维度不变,这就表明是按列进行处理。

常用函数

为了便于我们掌握,我们结合数据分析的流程和其内部函数的作用,将其分为以下几类,具体见下图。

(1)对象创建

pandas中有两种重要对象:Series和DataFrame。前者类似一维数组,后者可看成Excel中的表格数据。后文将用df表示任意的DataFrame对象,用s表示任意的Series对象,用pd表示pandas库。

df.duplicated(subset=["col"],keep=first) #各行是否是重复行,返回Series,keep参数为first,last,False,first意思是第一次出现的重复值保留。 df.drop_duplicates(subset=["col"],keep=first,ignore_index=True) #根据列删除重复行,返回删除后的结果数据 df.fillna(value=,inplace=) #用value值填充na,返回填充后的结果数据 df.dropna(axis=0,how='any',inplace=False) #axis=0即行,how有‘any’和‘all’两个选项,all表示所有值都为NA才删除 df.drop(labels=0,columns=['col1'],axis=0,) #删除指定列,也可以删除行,axis作用不大 df.rename(index={'row1':'A'},columns={'col1':'A1'}) df.replace(to_replace=np.nan,value=0,inplace=False) #替换df值,前后值可以用字典表,{1:‘A', '2':'B'}

(2)数据读取

数据读取重点掌握以下三种。

pd.read_table(filename, sep='\t', header=0, index_col=None,……) #要读取的文件名称是必须输入的参数,其余为可选项,header为要选取哪一行作为列名称,默认第一行 pd.read_csv(filename, sep=',', header=0, index_col=None,……) #与上面的函数用法大致相同 pd.read_excel(filename,sheet_name=0, header=0,index_col=None,……) #从Excel文件读入数据,增加了sheet_name参数的选项,代表要读取第几个工作表的数据

(3)数据描述

在读完数据后,我们要先查看数据的整体情况。

df.info() #查看数据框基本信息,包含多少行和列,每列什么类型等等 df.descirbe() #查看数据的整体描述,统计的是数值型列 df.head(n) #查看前n行 df.tail(n) #查看后n行 df.count(axis=0) #非空值个数,返回Series,0为按列统计,1为按行统计 df.isna() #返回每个元素是否是缺失值的bool数据框 df.isnull() #返回每个元素是否是空值的bool数据框 df.columns #返回Index类型的列的集合,因为列名称是属性,所以没有括号 df.dtypes #每一列的数据类型 df.index #行索引名,返回Index类型的索引的集合 df.shape #返回(行数,列数)格式的元组 df.values #值的二维数组,返回numpy.ndarray对象 s.nunique() #返回唯一值个数 s.unique() #唯一值数据,返回array格式

(3)数据筛选

数据筛选的本质无外乎就是根据行和列的特性来选择满足我们需求的数据,掌握这些基本的筛选方法就可以组合复杂的筛选方法。

df["col1"] #选择某一列,返回的是Series类型 df[["col1"]] #选择某一列,返回的是DataFrame类型 df[df["col1"] > 1] #选取满足条件的行,df["col"]>1返回的还是一个数据框,只是每个值为bool值 df.query("col1 > 1") #这种方法也可选取满足条件的行 df.loc[m:n] #按照行索引选取m~n行,注意是包含n的 df.loc[m:n,'col1':'coln'] #注意loc函数的参数都是索引名 df.iloc[m:n] #获取从m~n-1行,iloc函数代表的是位置,即参数都是数字,代表第几行第几列 df.select_dtypes(include=None, exclude=None) #按照数据类型选择列 df.isin(values=) #数据框中数据是否存在于values中,返回的是DataFrame类型

(4)数据清洗

数据清洗主要是一些重复值、缺失值和索引名称等问题的处理。

df.duplicated(subset=["col"],keep=first) #各行是否是重复行,返回Series,keep参数为first,last,False,first意思是第一次出现的重复值保留。 df.drop_duplicates(subset=["col"],keep=first,ignore_index=True) #根据列删除重复行,返回删除后的结果数据 df.fillna(value=,inplace=) #用value值填充na,返回填充后的结果数据 df.dropna(axis=0,how='any',inplace=False) #axis=0即行,how有‘any’和‘all’两个选项,all表示所有值都为NA才删除 df.drop(labels=0,columns=['col1'],axis=0,) #删除指定列,也可以删除行,axis作用不大 df.rename(index={'row1':'A'},columns={'col1':'A1'}) #重命名行索引和列名称 df.replace(to_replace=np.nan,value=0,inplace=False) #替换df值,前后值可以用字典表示,如{"a":‘A', "b":'B'} df.columns=pd.MultiIndex.from_tuples(indx) #构建层次化索引

(5)数据处理

数据处理的范畴很广,包含数据的统计汇总,也包含数据的转换,做这一块时脑中要同时进行抽象处理,便于查看逻辑是否有错。

pd.merge(df1, df2, on='col1',left_on='col1',right_on='col2',how='inner',sort=False) #how有outer,left,right选项,默认inner,suffixes表示在相同的列名添加后缀 pd.concat([df1,df2,df3], axis=0,join='outer',ignore_index=False,keys=["x","y","z"]) #按行或是按列拼接多个数据框或Series,axis=0为按列拼接,即增加在行下面,key添加层次化索引 df1.append(df2,ignore_index=False) #可为df也可为s,按列添加,即添加行,ignor_index=False意思是都按照原先的行索引值 df.stack(level=-1,dropna=True) #列旋转成行,也就是列名变为行索引名,原索引变成多层索引, #level表示选取哪个索引进行转换,-1表示最内层的索引,0表示第一层索引 df.unstack(level=-1,fill_value=None) #行转列,默认从最内层索引开始 df.pivot_table(index=["col1","col2"],values=["col3"],columns=["col4"],aggfunc="count") #类似于Excel中的数据透视表,index表示选择行,column是选择列,values是进行函数计算的列 df.groupby(["col1"]) #根据列对数据框进行分组,返回分组对象 df.groupby(["col1"])["col2"].count() #表示根据col1列进行分组,统计col2列的行数。这种方式是最为常用的统计汇总方法 df.agg({"col1":"count","col2":"sum"},axis=0) #agg是聚合的别名,表示对不同列用不同函数进行统计,返回Series对象 df.sort_values(by='col1',axis=0,ascending=True, inplace=False, na_position={"last","first"}) #按照某一列对数据框进行排序 df.apply(lambda x :x.max()-x.min(),axis=0) #默认参数axis=0,表示按列对数据进行操作 df.applymap(lambda x : 1 if x>0 else 0) #对数据框每一个数据进行操作,返回DataFrame格式 s.map(lambda x : 1 if x>0 else 0) #对Series的每一个数据进行,不能对DataFrame操作 s.value_counts() #对Series中数据进行分类汇总 pd.cut(s,bins=[-np.inf,0,np.inf],labels=list("abc")) #bins为左开右闭区间,将Series数据进行分类 df.where(df


【本文地址】


今日新闻


推荐新闻


CopyRight 2018-2019 办公设备维修网 版权所有 豫ICP备15022753号-3