【学习经典】python 数据聚合与分组运算(part 1) |
您所在的位置:网站首页 › 数据聚合与分组运算案例分享 › 【学习经典】python 数据聚合与分组运算(part 1) |
对数据集进行分组并对各组应用一个函数(无论是聚合还是转换),通常是数据分析工作中的重要环节。在将数据集加载、融合、准备好之后,通常就是计算分组统计或生成透视表。pandas提供了一个灵活高效的gruopby功能,它使你能以一种自然的方式对数据集进行切片、切块、摘要等操作。 关系型数据库和SQL(Structured Query Language,结构化查询语言)能够如此流行的原因之一就是其能够方便地对数据进行连接、过滤、转换和聚合。但是,像SQL这样的查询语言所能执行的分组运算的种类很有限。在本章中你将会看到,由于Python和pandas强大的表达能力,我们可以执行复杂得多的分组运算(利用任何可以接受pandas对象或NumPy数组的函数)。在本章中,你将会学到: 使用一个或多个键(形式可以是函数、数组或DataFrame列名)分割pandas对象。 计算分组的概述统计,比如数量、平均值或标准差,或是用户定义的函数。 应用组内转换或其他运算,如规格化、线性回归、排名或选取子集等。 计算透视表或交叉表。 执行分位数分析以及其它统计分组分析。 笔记:对时间序列数据的聚合(groupby的特殊用法之一)也称作重采样(resampling),本书将在第11章中单独对其进行讲解。 1. GroupBy机制Hadley Wickham(许多热门R语言包的作者)创造了一个用于表示分组运算的术语"split-apply-combine"(拆分-应用-合并)。第一个阶段,pandas对象(无论是Series、DataFrame还是其他的)中的数据会根据你所提供的一个或多个键被拆分(split)为多组。拆分操作是在对象的特定轴上执行的。例如,DataFrame可以在其行(axis=0)或列(axis=1)上进行分组。然后,将一个函数应用(apply)到各个分组并产生一个新值。最后,所有这些函数的执行结果会被合并(combine)到最终的结果对象中。结果对象的形式一般取决于数据上所执行的操作。图10-1大致说明了一个简单的分组聚合过程。
分组键可以有多种形式,且类型不必相同: 列表或数组,其长度与待分组的轴一样。表示DataFrame某个列名的值。字典或Series,给出待分组轴上的值与分组名之间的对应关系。函数,用于处理轴索引或索引中的各个标签。注意,后三种都只是快捷方式而已,其最终目的仍然是产生一组用于拆分对象的值。如果觉得这些东西看起来很抽象,不用担心,我将在本章中给出大量有关于此的示例。首先来看看下面这个非常简单的表格型数据集(以DataFrame的形式): df = pd.DataFrame({'key1' : ['a', 'a', 'b', 'b', 'a'], 'key2' : ['one', 'two', 'one', 'two', 'one'], 'data1' : np.random.randn(5), 'data2' : np.random.randn(5)}) df
Out[13]: 变量grouped是一个GroupBy对象。它实际上还没有进行任何计算,只是含有一些有关分组键df[‘key1’]的中间数据而已。换句话说,该对象已经有了接下来对各分组执行运算所需的一切信息。例如,我们可以调用GroupBy的mean方法来计算分组平均值: grouped.mean()
如果我们一次传入多个数组的列表,就会得到不同的结果: dmean = df['data1'].groupby([df['key1'], df['key2']]).mean() dmean
你可能已经注意到了,第一个例子在执行df.groupby(‘key1’).mean()时,结果中没有key2列。这是因为df[‘key2’]不是数值数据(俗称“麻烦列”),所以被从结果中排除了。默认情况下,所有数值列都会被聚合,虽然有时可能会被过滤为一个子集,稍后就会碰到。 无论你准备拿groupby做什么,都有可能会用到GroupBy的size方法,它可以返回一个含有分组大小的Series: df.groupby(['key1', 'key2']).size()
GroupBy对象支持迭代,可以产生一组二元元组(由分组名和数据块组成)。看下面的例子: for name, group in df.groupby('key1'): print(name) print(group)
对于由DataFrame产生的GroupBy对象,如果用一个(单个字符串)或一组(字符串数组)列名对其进行索引,就能实现选取部分列进行聚合的目的。也就是说: df.groupby('key1')['data1'] df.groupby('key1')[['data2']]是以下代码的语法糖: df[‘data1’].groupby(df[‘key1’]) df[[‘data2’]].groupby(df[‘key1’]) 尤其对于大数据集,很可能只需要对部分列进行聚合。例如,在前面那个数据集中,如果只需计算data2列的平均值并以DataFrame形式得到结果,可以这样写: df.groupby(['key1', 'key2'])[['data2']].mean()
Out[33]: s_grouped.mean()除数组以外,分组信息还可以其他形式存在。来看另一个示例DataFrame: people = pd.DataFrame(np.random.randn(5, 5), columns=['a', 'b', 'c', 'd', 'e'], index=['Joe', 'Steve', 'Wes', 'Jim', 'Travis']) people.iloc[2:3, [1, 2]] = np.nan # Add a few NA values people
现在,你可以将这个字典传给groupby,来构造数组,但我们可以直接传递字典(我包含了键“f”来强调,存在未使用的分组键是允许的): by_column = people.groupby(mapping, axis=1) by_column.sum()Series也有同样的功能,它可以被看做一个固定大小的映射: map_series = pd.Series(mapping) map_series比起使用字典或Series,使用Python函数是一种更原生的方法定义分组映射。任何被当做分组键的函数都会在各个索引值上被调用一次,其返回值就会被用作分组名称。具体点说,以上一小节的示例DataFrame为例,其索引值为人的名字。你可以计算一个字符串长度的数组,更简单的方法是传入len函数: people.groupby(len).sum()
层次化索引数据集最方便的地方就在于它能够根据轴索引的一个级别进行聚合: columns = pd.MultiIndex.from_arrays([['US', 'US', 'US', 'JP', 'JP'], [1, 3, 5, 1, 3]], names=['cty', 'tenor']) hier_df = pd.DataFrame(np.random.randn(4, 5), columns=columns) hier_df
聚合指的是任何能够从数组产生标量值的数据转换过程。之前的例子已经用过一些,比如mean、count、min以及sum等。你可能想知道在GroupBy对象上调用mean()时究竟发生了什么。许多常见的聚合运算(如表10-1所示)都有进行优化。然而,除了这些方法,你还可以使用其它的。 你可以使用自己发明的聚合运算,还可以调用分组对象上已经定义好的任何方法。例如,quantile可以计算Series或DataFrame列的样本分位数。 虽然quantile并没有明确地实现于GroupBy,但它是一个Series方法,所以这里是能用的。实际上,GroupBy会高效地对Series进行切片,然后对各片调用piece.quantile(0.9),最后将这些结果组装成最终结果: df
(注意:agg和apply的区别是,agg对分组处理之后返回的是标量,apply对分组处理后,既可以返回标量也可以返回dataframe。)
笔记:自定义聚合函数要比表10-1中那些经过优化的函数慢得多。这是因为在构造中间分组数据块时存在非常大的开销(函数调用、数据重排等)。 面向列的多函数应用回到前面小费的例子。使用read_csv导入数据之后,我们添加了一个小费百分比的列tip_pct: tips = pd.read_csv('examples/tips.csv') # Add tip percentage of total bill tips['tip_pct'] = tips['tip'] / tips['total_bill'] tips[:6]
注意,对于表10-1中的那些描述统计,可以将函数名以字符串的形式传入: grouped_pct = grouped['tip_pct'] grouped_pct.agg('mean')
可以对自动给出的列名进行重命名。 如果传入的是一个由(name,function)元组组成的列表,则各元组的第一个元素就会被用作DataFrame的列名(可以将这种二元元组列表看做一个有序映射): # 将mean重命名为foo, 将 np.std 重命名为bar grouped_pct.agg([('foo', 'mean'), ('bar', np.std)])
到目前为止,所有示例中的聚合数据都有由唯一的分组键组成的索引(可能还是层次化的)。由于并不总是需要如此,所以你可以向groupby传入 as_index=False 以禁用该功能: tips.groupby(['day', 'smoker'], as_index=False).mean()
最通用的GroupBy方法是apply,本节剩余部分将重点讲解它。如图10-2所示,apply会将待处理的对象拆分成多个片段,然后对各片段调用传入的函数,最后尝试将各片段组合到一起。 回到之前那个小费数据集,假设你想要根据分组选出最高的3个tip_pct值。首先,编写一个选取指定列具有最大值的行的函数: def top(df, n=3, column='tip_pct'): return df.sort_values(by=column)[-n:] top(tips, n=4)现在,如果对smoker分组并用该函数调用apply,就会得到: tips.groupby('smoker').apply(top)(注意:agg和apply的区别是,agg对分组处理之后返回的是标量,apply对分组处理后,既可以返回标量也可以返回dataframe。) 如果传给apply的函数能够接受其他参数或关键字,则可以将这些内容放在函数名后面一并传入: tips.groupby(['smoker', 'day']).apply(top, n=1, column='total_bill')笔记:除这些基本用法之外,能否充分发挥apply的威力很大程度上取决于你的创造力。传入的那个函数能做什么全由你说了算,它只需返回一个pandas对象或标量值即可。本章后续部分的示例主要用于讲解如何利用groupby解决各种各样的问题。 可能你已经想起来了,之前我在GroupBy对象上调用过describe: result = tips.groupby('smoker')['tip_pct'].describe() result
从上面的例子中可以看出,分组键会跟原始对象的索引共同构成结果对象中的层次化索引。将group_keys=False传入groupby即可禁止该效果: tips.groupby('smoker', group_keys=False).apply(top) # 和 as_index 参数的区别?我曾在第8章中讲过,pandas有一些能根据指定面元或样本分位数将数据拆分成多块的工具(比如cut和qcut)。将这些函数跟groupby结合起来,就能非常轻松地实现对数据集的桶(bucket)或分位数(quantile)分析了。以下面这个简单的随机数据集为例,我们利用cut将其装入长度相等的桶中: frame = pd.DataFrame({'data1': np.random.randn(1000), 'data2': np.random.randn(1000)}) # 将data1的全距四等分,并将每个元素归入每个区间中 quartiles = pd.cut(frame.data1, 4) quartiles.head()
因为是分3桶,所以看到只有 0,1,2 这三个区间编号: 我们会在第12章详细讲解pandas的Categorical类型。 示例:用特定于分组的值填充缺失值对于缺失数据的清理工作,有时你会用dropna将其替换掉,而有时则可能会希望用一个固定值或由数据集本身所衍生出来的值去填充NA值。这时就得使用fillna这个工具了。在下面这个例子中,我用平均值去填充NA值: s = pd.Series(np.random.randn(6)) # 这个写法表示2的倍数行 s[::2] = np.nan s假设你需要对不同的分组填充不同的值。一种方法是将数据分组,并使用apply和一个能够对各数据块调用fillna的函数即可。下面是一些有关美国几个州的示例数据,这些州又被分为东部和西部: states = ['Ohio', 'New York', 'Vermont', 'Florida', 'Oregon', 'Nevada', 'California', 'Idaho'] group_key = ['East'] * 4 + ['West'] * 4 data = pd.Series(np.random.randn(8), index=states) data
将一些值设为缺失: data[['Vermont', 'Nevada', 'Idaho']] = np.nan data
返回的是各个填充后分组的合并: 假设你想要从一个大数据集中随机抽取(进行替换或不替换)样本以进行蒙特卡罗模拟(Monte Carlo simulation)或其他分析工作。“抽取”的方式有很多,这里使用的方法是对Series使用sample方法: # Hearts, Spades, Clubs, Diamondssuits = ['H', 'S', 'C', 'D'] # 该游戏规则中各个颜色牌号的对应值。 card_val = (list(range(1, 11)) + [10] * 3) * 4 base_names = ['A'] + list(range(2, 11)) + ['J', 'K', 'Q'] # cards 存放了所有的牌名,比如2H表示红桃2. cards = [] for suit in ['H', 'S', 'C', 'D']: cards.extend(str(num) + suit for num in base_names) # [牌值,牌名 ] 对 deck = pd.Series(card_val, index=cards)现在我有了一个长度为52的Series,其索引包括牌名,值则是21点或其他游戏中用于计分的点数(为了简单起见,我当A的点数为1): deck[:13]
根据groupby的 “拆分-应用-合并” 范式,可以进行DataFrame的列与列之间或两个Series之间的运算(比如分组加权平均)。以下面这个数据集为例,它含有分组键、值以及一些权重值: df = pd.DataFrame({'category': ['a', 'a', 'a', 'a', 'b', 'b', 'b', 'b'], 'data': np.random.randn(8), 'weights': np.random.rand(8)}) df
接下来,我们使用pct_change计算close_px的百分比变化: rets = close_px.pct_change().dropna()最后,我们用年对百分比变化进行分组,可以用一个一行的函数,从每行的标签返回每个datetime标签的year属性: get_year = lambda x: x.year by_year = rets.groupby(get_year) by_year.apply(spx_corr)这个表的含义:2003年,个股AAPL的日收益率与SPX 的相关系数是0.541124 顺着上一个例子继续,你可以用groupby执行更为复杂的分组统计分析,只要函数返回的是pandas对象或标量值即可。例如,我可以定义下面这个regress函数(利用statsmodels计量经济学库)对各数据块执行普通最小二乘法(Ordinary Least Squares,OLS)回归: import statsmodels.api as sm def regress(data, yvar, xvars): Y = data[yvar] X = data[xvars] X['intercept'] = 1.0 #新增一列'intercept'(截距) result = sm.OLS(Y, X).fit() return result.params现在,为了按年计算AAPL对SPX收益率的线性回归,执行: by_year.apply(regress, 'AAPL', ['SPX'])关于透视表和交叉表等高级聚合和分组方法,请见 python 数据聚合与分组运算(part 2) |
今日新闻 |
推荐新闻 |
CopyRight 2018-2019 办公设备维修网 版权所有 豫ICP备15022753号-3 |