数据分析项目通常可以分解为以下过程,数据加载-数据清洗-(特征处理、可视化、模型训练)-成果汇报。其中,数据清洗与特征处理或者称为数据预处理过程,一般会占据整个项目的大部分时间。熟练掌握相关工具,提高数据处理的效率,是开展数据分析工作的基础。

在开展数据科学相关工作时,最常用的开源工具包括 R[1] 与 python[2]。对于可在内存级处理的数据,在 R 中通常使用 data.table 包进行数据处理,而在 python 环境中 pandas 包最为常用的。为了方便查阅和对比,本文分别用 data.table[3] 与 pandas[4] 实现了常见的数据处理任务。

数据框(data frame)是大家接触最多的数据格式,它的每一列都是长度相等、类型一致的向量。对数据框的操作可以从行与列两个维度,拆解为以下五类基本操作。这一思路来自 dplyr[5] 包的帮助文档,因此下面五类基本操作的英文均为该包的函数名。这些基本操作均可以与 group_by 相互结合使用。除了这五类基本操作,还包括行列转换、数据框的切割与合并等。绝多数的数据处理任务都可以拆解为以上这几类基本操作,具体案例请参见下面的代码。

行:选择 filter、排序 arrange列:选择 select、新建 mutate、计算 summarise

数据探索

数据加载

data.table 版本

library(data.table)packageVersion('data.table')url = "https://vincentarelbundock.github.io/Rdatasets/csv/datasets/HairEyeColor.csv"dt = fread(url)

pandas 版本

import pandas as pdpd.__version__url = "https://vincentarelbundock.github.io/Rdatasets/csv/datasets/HairEyeColor.csv"df = pd.read_csv(url)

查看数据结构

data.table 版本

# 数据类型class(dt)str(dt)# 列名names(dt)# 打印前后几行head(dt, n=3)tail(dt, n=3)# 维度dim(dt)nrow(dt)ncol(dt)# 统计描述summary(dt)

pandas 版本

# 数据类型type(df)df.dtypes# 列名list(df)# 打印前后几行df.head(n=3)df.tail(n=3)# 维度df.shapelen(df.index)len(df.columns)# 统计描述df.describe()

行选择与排序

行选择

data.table 版本

# 基于行所在位置筛选,data.table格式的index默认为1开始且dt[c(3,1,2)]# 单条件筛选dt[Hair == 'Red']# 多条件筛选dt[Hair == 'Black' &    Freq >= 10 &    Eye %in% c('Brown', 'Blue')]

pandas 版本

# 基于行所在位置筛选df.iloc[[2,0,1]] # python序数从0开始,2代表第三行df.loc[[2,0,1]] # 如果index未修改,效果与iloc的一致# 单条件筛选,去掉.loc效果一致df.loc[df['Hair'] == 'Red'] # pandas 多条件筛选时要用 |, &, ~分别代表or, and, not; 且每个条件需要用括号区分 df.loc[(df['Hair'] == 'Black') &        (df['Freq'] >= 10) &        (df['Eye'].isin(['Brown', 'Blue']))]

行排序

data.table 版本

dt[order(Sex, -Freq)]

pandas 版本

df.sort_values(['Sex', 'Freq'],                ascending = [True, False] )

列选择、新建与计算

列选择

data.table 版本

dt[, .(Hair, Freq)]# or dt[, c('Eye', 'Sex'), with=FALSE]

pandas 版本

df[['Hair', 'Freq']]# or df.loc[:, ['Eye', 'Sex']] # 选一列时也要保留[],否则与df.Eye一样为series

列新建

data.table 版本

# 新建一列dt[, nc := .I] # .I .N .SD为特殊符号,查看帮助?`.I`dt[,'nc0'] = 1:32# 新建多列dt[, `:=`(  nc1 = 1:32,  nc2 = paste(Hair, Eye, sep=','))]# 基于条件新建列dt[, nc3 := ifelse(Freq >= 10, 1, 0)]dt[Freq >= 20, nc4 := 2]# 基于函数新建多列ncols = c('nc', 'nc0') dt[,    (ncols) := lapply(.SD, function(x) x^0.5+1),    .SDcols = ncols]# 删除一列dt[, nc := NULL]# 删除多列dt[, (c('nc0','nc1','nc2','nc3','nc4')) := NULL]

pandas 版本

# 新建一列df = df.assign(nc = pd.Series(range(32)))df.loc[:,'nc0'] = pd.Series(range(32), index=df.index)# 新建多列df = df.assign(  nc1 = pd.Series(range(32)),  nc2 = df.Hair + ',' + df.Eye)# 基于条件新建列df = df.assign(nc3 = df.Freq.apply(lambda x: 1 if x >= 10 else 0))df.loc[df.Freq >= 20, 'nc4'] = 2# 基于函数新建多列ncols = ['nc', 'nc0']df.loc[:, ncols] = df[ncols].apply(lambda x: x**0.5+1)# 删除一列df = df.drop('nc', axis=1)# 删除多列df.drop(['nc0','nc1','nc2','nc3','nc4'], axis=1, inplace=True)

列计算

data.table 版本

# 对一列进行计算dt[, max(Freq)] # 最大值dt[, unique(Eye)] # 唯一值dt[, table(Eye)] # 计数# 对多列进行计算## 所有列的最大值dt[, lapply(.SD, max)] ## 所有列的缺失率dt[, lapply(.SD, function(x) mean(is.na(x)))] ## 对部分列计算缺失率,且可扩展到其他函数sel_cols = c('Hair', 'Sex', 'Freq')dt[, lapply(.SD, function(x) mean(is.na(x))), .SDcols = sel_cols]

pandas 版本

# 对一列进行计算df.Freq.max() # 最大值df.Eye.unique() # 唯一值df.Eye.value_counts() # 计数# 对多列进行计算## 所有列的最大值df.max() ## 所有列的缺失率 df.isnull().mean() ## 对部分列计算缺失率,且可扩展到其他函数sel_cols = ['Hair', 'Sex', 'Freq']df[sel_cols].apply(lambda x: x.isnull().mean())

分组数据操作

data.table 版本

# 分组行操作## 行选择dt[, .SD[1], by = 'Sex'] # 每组的第一行dt[, .SD[.N], by = 'Sex'] # 每组的最后一行# 分组列操作## 分组列新建dt[, freq_total := sum(Freq), by = 'Sex']## 分组列计算dt[, .(freq_total = sum(Freq)), by = 'Sex'][]

pandas 版本

# 分组行操作## 行选择df.groupby('Sex').head(1) # 每组的第一行df.groupby('Sex').tail(1) # 每组的最后一行# 分组列操作## 分组列新建df.loc[:,'freq_total'] = df.groupby('Sex')['Freq'].transform(sum)## 分组列计算df.groupby('Sex').agg({'Freq':'sum'}) \   .rename(columns={'Freq':'freq_total'}) \  .reset_index()

行列转换

长宽表转换

data.table 版本

# 长表转宽表dt_w = dcast(dt, Hair+Sex~Eye, value.var = 'Freq', fun.aggregate = sum)# 宽表转长表dt_l = melt(dt_w, id = c('Hair','Sex'), variable.name = 'Eye', value.name = 'Freq')

pandas 版本

# 长表转宽表df_w = pd.pivot_table(df, index=['Hair','Sex'], columns='Eye', values='Freq', aggfunc = sum).reset_index()# 宽表转长表df_l = pd.melt(df_w, id_vars = ['Hair','Sex'], var_name='Freq')

行列切割合并

data.table 版本

# 一行切割为多行dtr = dt[, paste0(Eye, collapse = ','), keyby = c('Hair', 'Sex')]dtr[, .(Eye = unlist(strsplit(V1, ','))), by = c('Hair', 'Sex')]# 一列切割为多列dtc = dt[, .(Hair, eye_sex = paste(Eye, Sex, sep = ','))]dtc[, c('Eye', 'Sex') := tstrsplit(eye_sex, ',')][]

pandas 版本

# 一行切割为多行dfr = df.groupby(['Hair','Sex'])['Eye'].apply(lambda x: ','.join(x)).reset_index()dfr.assign(Eye = dfr['Eye'].str.split(',')).explode('Eye')# 一列切割为多列dfc = df[['Hair']].assign(eye_sex = df.Eye+','+df.Sex)dfc[['Eye', 'Sex']]= dfc['eye_sex'].str.split(',', expand = True)

多个数据框合并

数据框行合并

data.table 版本

# 数据框行切割dtlist1 = split(dt, by = 'Sex')# ordtlist2 = split(dt, list(dt$Sex))# 数据框行合并dtbind2 = rbindlist(dtlist1)

pandas 版本

# 数据框行切割dfdict = dict(tuple(df.groupby(['Sex'])))# or dflist = [d for _, d in df.groupby(['Sex'])]# 数据框行合并df_con = pd.concat(dfdict, axis=0).reset_index(drop=True)

数据框列合并

data.table 版本

dt1 = dt[sample(.N,2)][,V1 := NULL]dt2 = dt[sample(.N,3)][,V1 := NULL]dt3 = dt[sample(.N,4)][,V1 := NULL]# 合并两个数据框dtmerge2 = merge(  dt1, dt2,   by = c('Hair', 'Eye', 'Sex'),   all = TRUE)# all, all.x, all.y: TRUE, FALSE# 合并多个数据框dtmerge3 = Reduce(  function(x,y) merge(    x,y,     by = c('Hair', 'Eye', 'Sex'),     all = TRUE  ),   list(dt1, dt2, dt3))

pandas 版本

df1 = df.sample(n=2).drop('Unnamed: 0', axis=1)df2 = df.sample(n=3).drop('Unnamed: 0', axis=1)df3 = df.sample(n=4).drop('Unnamed: 0', axis=1)# 合并两个数据框dfmerge2 = pd.merge(  df1, df2,   on = ['Hair', 'Eye', 'Sex'],   how = 'outer')# how: left, right, inner, outer# 合并多个数据框from functools import reducedf_merge3 = reduce(  lambda x,y: pd.merge(    x,y,     on = ['Hair', 'Eye', 'Sex'],     how = 'outer'  ),  [df1, df2, df3])

总结

通过以上的对比介绍,大家可以从功能上直观地了解了,如何分别使用 data.table 和 pandas 实现常见数据分析任务。如果您希望更进一步了解这两个包的功能,请查看各自项目主页(data.table, pandas)。在性能方面的对比,根据 Database-like ops benchmark[6] 显示,data.table 在大部分数据操作任务中性能表现最好,而且其语法也相对简洁统一。

补充信息

R for Data Science[7]本文参考了 Data Manipulation with Python Pandas and R Data.Table[8] 并结合了自己的数据分析经验dplyr 是 R 语言中另外一个广泛使用的数据处理工具包,其与 data.table 的对比请参考 A data.table and dplyr tour[9]

References

[1] R: https://www.r-project.org
[2] python: https://www.python.org
[3] data.table: http://r-datatable.com
[4] pandas: https://pandas.pydata.org/pandas-docs/stable/
[5] dplyr: https://dplyr.tidyverse.org
[6] Database-like ops benchmark: https://h2oai.github.io/db-benchmark/
[7] R for Data Science: https://r4ds.had.co.nz/
[8] Data Manipulation with Python Pandas and R Data.Table: https://datascience-enthusiast.com/R/pandas_datatable.html
[9] A data.table and dplyr tour: https://atrebas.github.io/post/2019-03-03-datatable-dplyr/


统计之都:专业、人本、正直的中国统计学社区。

关注方式:扫描下图二维码。或查找公众号,搜索 统计之都 或 CapStat 即可。

往期推送:进入统计之都会话窗口,点击右上角小人图标,查看历史消息即可。

继续阅读
阅读原文