Pandas处理缺失数据
1 2
| import numpy as np import pandas as pd
PYTHON
|
一、缺失值的统计和删除
1. 缺失信息的统计
缺失数据可以使用isna
或isnull
(两个函数没有区别)来查看每个单元格是否缺失,结合mean
可以计算出每列缺失值的比例:
1 2
| df = pd.read_csv('../data/learn_pandas.csv', usecols = ['Grade', 'Name', 'Gender', 'Height', 'Weight', 'Transfer']) df.isna().head()
PYTHON
|
|
Grade
|
Name
|
Gender
|
Height
|
Weight
|
Transfer
|
0
|
False
|
False
|
False
|
False
|
False
|
False
|
1
|
False
|
False
|
False
|
False
|
False
|
False
|
2
|
False
|
False
|
False
|
False
|
False
|
False
|
3
|
False
|
False
|
False
|
True
|
False
|
False
|
4
|
False
|
False
|
False
|
False
|
False
|
False
|
Grade 0.000
Name 0.000
Gender 0.000
Height 0.085
Weight 0.055
Transfer 0.060
dtype: float64
TEXT
如果想要查看某一列缺失或者非缺失的行,可以利用Series
上的isna
或者notna
进行布尔索引。例如,查看身高缺失的行:
1
| df[df.Height.isna()].head()
PYTHON
|
|
Grade
|
Name
|
Gender
|
Height
|
Weight
|
Transfer
|
3
|
Sophomore
|
Xiaojuan Sun
|
Female
|
NaN
|
41.0
|
N
|
12
|
Senior
|
Peng You
|
Female
|
NaN
|
48.0
|
NaN
|
26
|
Junior
|
Yanli You
|
Female
|
NaN
|
48.0
|
N
|
36
|
Freshman
|
Xiaojuan Qin
|
Male
|
NaN
|
79.0
|
Y
|
60
|
Freshman
|
Yanpeng Lv
|
Male
|
NaN
|
65.0
|
N
|
如果想要同时对几个列,检索出全部为缺失或者至少有一个缺失或者没有缺失的行,可以使用isna, notna
和any, all
的组合。例如,对身高、体重和转系情况这3列分别进行这三种情况的检索:
1 2
| sub_set = df[['Height', 'Weight', 'Transfer']] df[sub_set.isna().all(1)]
PYTHON
|
|
Grade
|
Name
|
Gender
|
Height
|
Weight
|
Transfer
|
102
|
Junior
|
Chengli Zhao
|
Male
|
NaN
|
NaN
|
NaN
|
1
| df[sub_set.isna().any(1)].head()
PYTHON
|
|
Grade
|
Name
|
Gender
|
Height
|
Weight
|
Transfer
|
3
|
Sophomore
|
Xiaojuan Sun
|
Female
|
NaN
|
41.0
|
N
|
9
|
Junior
|
Juan Xu
|
Female
|
164.8
|
NaN
|
N
|
12
|
Senior
|
Peng You
|
Female
|
NaN
|
48.0
|
NaN
|
21
|
Senior
|
Xiaopeng Shen
|
Male
|
166.0
|
62.0
|
NaN
|
26
|
Junior
|
Yanli You
|
Female
|
NaN
|
48.0
|
N
|
1
| df[sub_set.notna().all(1)].head()
PYTHON
|
|
Grade
|
Name
|
Gender
|
Height
|
Weight
|
Transfer
|
0
|
Freshman
|
Gaopeng Yang
|
Female
|
158.9
|
46.0
|
N
|
1
|
Freshman
|
Changqiang You
|
Male
|
166.5
|
70.0
|
N
|
2
|
Senior
|
Mei Sun
|
Male
|
188.9
|
89.0
|
N
|
4
|
Sophomore
|
Gaojuan You
|
Male
|
174.0
|
74.0
|
N
|
5
|
Freshman
|
Xiaoli Qian
|
Female
|
158.0
|
51.0
|
N
|
2. 缺失信息的删除
数据处理中经常需要根据缺失值的大小、比例或其他特征来进行行样本或列特征的删除,pandas
中提供了dropna
函数来进行操作。
dropna
的主要参数为轴方向axis
(默认为0,即删除行)、删除方式how
、删除的非缺失值个数阈值thresh
(没有达到这个数量的相应维度会被删除)、备选的删除子集subset
,其中how
主要有any
和all
两种参数可以选择。
例如,删除身高体重至少有一个缺失的行:
1 2
| res = df.dropna(how = 'any', subset = ['Height', 'Weight']) res.shape
PYTHON
|
例如,删除超过15个缺失值的列:
1 2
| res = df.dropna(1, thresh=df.shape[0]-15) res.head()
PYTHON
|
|
Grade
|
Name
|
Gender
|
Weight
|
Transfer
|
0
|
Freshman
|
Gaopeng Yang
|
Female
|
46.0
|
N
|
1
|
Freshman
|
Changqiang You
|
Male
|
70.0
|
N
|
2
|
Senior
|
Mei Sun
|
Male
|
89.0
|
N
|
3
|
Sophomore
|
Xiaojuan Sun
|
Female
|
41.0
|
N
|
4
|
Sophomore
|
Gaojuan You
|
Male
|
74.0
|
N
|
当然,不用dropna
同样是可行的,例如上述的两个操作,也可以使用布尔索引来完成:
1 2
| res = df.loc[df[['Height', 'Weight']].notna().all(1)] res.shape
PYTHON
|
1 2
| res = df.loc[:, ~(df.isna().sum()>15)] res.head()
PYTHON
|
|
Grade
|
Name
|
Gender
|
Weight
|
Transfer
|
0
|
Freshman
|
Gaopeng Yang
|
Female
|
46.0
|
N
|
1
|
Freshman
|
Changqiang You
|
Male
|
70.0
|
N
|
2
|
Senior
|
Mei Sun
|
Male
|
89.0
|
N
|
3
|
Sophomore
|
Xiaojuan Sun
|
Female
|
41.0
|
N
|
4
|
Sophomore
|
Gaojuan You
|
Male
|
74.0
|
N
|
二、缺失值的填充和插值
1. 利用fillna进行填充
在fillna
中有三个参数是常用的:value, method, limit
。其中,value
为填充值,可以是标量,也可以是索引到元素的字典映射;method
为填充方法,有用前面的元素填充ffill
和用后面的元素填充bfill
两种类型,limit
参数表示连续缺失值的最大填充次数。
下面构造一个简单的Series
来说明用法:
1 2
| s = pd.Series([np.nan, 1, np.nan, np.nan, 2, np.nan], list('aaabcd')) s
PYTHON
|
a NaN
a 1.0
a NaN
b NaN
c 2.0
d NaN
dtype: float64
TEXT
1
| s.fillna(method='ffill')
PYTHON
|
a NaN
a 1.0
a 1.0
b 1.0
c 2.0
d 2.0
dtype: float64
TEXT
1
| s.fillna(method='ffill', limit=1)
PYTHON
|
a NaN
a 1.0
a 1.0
b NaN
c 2.0
d 2.0
dtype: float64
TEXT
1
| s.fillna(s.mean())
PYTHON
|
a 1.5
a 1.0
a 1.5
b 1.5
c 2.0
d 1.5
dtype: float64
TEXT
1
| s.fillna({'a': 100, 'd': 200})
PYTHON
|
a 100.0
a 1.0
a 100.0
b NaN
c 2.0
d 200.0
dtype: float64
TEXT
有时为了更加合理地填充,需要先进行分组后再操作。例如,根据年级进行身高的均值填充:
1
| df.groupby('Grade')['Height'].transform(lambda x: x.fillna(x.mean())).head()
PYTHON
|
0 158.900000
1 166.500000
2 188.900000
3 163.075862
4 174.000000
Name: Height, dtype: float64
TEXT
【练一练】
对一个序列以如下规则填充缺失值:如果单独出现的缺失值,就用前后均值填充,如果连续出现的缺失值就不填充,即序列[1, NaN, 3, NaN, NaN]
填充后为[1, 2, 3, NaN, NaN]
,请利用fillna
函数实现。(提示:利用limit
参数)
#### 【END】 ### 2. 插值函数
在关于interpolate
函数的文档描述中,列举了许多插值法,包括了大量Scipy
中的方法。由于很多插值方法涉及到比较复杂的数学知识,因此这里只讨论比较常用且简单的三类情况,即线性插值、最近邻插值和索引插值。
对于interpolate
而言,除了插值方法(默认为linear
线性插值)之外,有与fillna
类似的两个常用参数,一个是控制方向的limit_direction
,另一个是控制最大连续缺失值插值个数的limit
。其中,限制插值的方向默认为forward
,这与fillna
的method
中的ffill
是类似的,若想要后向限制插值或者双向限制插值可以指定为backward
或both
。
1 2
| s = pd.Series([np.nan, np.nan, 1, np.nan, np.nan, np.nan, 2, np.nan, np.nan]) s.values
PYTHON
|
array([nan, nan, 1., nan, nan, nan, 2., nan, nan])
TEXT
例如,在默认线性插值法下分别进行backward
和双向限制插值,同时限制最大连续条数为1:
1 2
| res = s.interpolate(limit_direction='backward', limit=1) res.values
PYTHON
|
array([ nan, 1. , 1. , nan, nan, 1.75, 2. , nan, nan])
TEXT
1 2
| res = s.interpolate(limit_direction='both', limit=1) res.values
PYTHON
|
array([ nan, 1. , 1. , 1.25, nan, 1.75, 2. , 2. , nan])
TEXT
第二种常见的插值是最近邻插补,即缺失值的元素和离它最近的非缺失值元素一样:
1
| s.interpolate('nearest').values
PYTHON
|
array([nan, nan, 1., 1., 1., 2., 2., nan, nan])
TEXT
最后来介绍索引插值,即根据索引大小进行线性插值。例如,构造不等间距的索引进行演示:
1 2
| s = pd.Series([0,np.nan,10],index=[0,1,10]) s
PYTHON
|
0 0.0
1 NaN
10 10.0
dtype: float64
TEXT
0 0.0
1 5.0
10 10.0
dtype: float64
TEXT
1
| s.interpolate(method='index')
PYTHON
|
0 0.0
1 1.0
10 10.0
dtype: float64
TEXT
同时,这种方法对于时间戳索引也是可以使用的,有关时间序列的其他话题会在第十章进行讨论,这里举一个简单的例子:
1 2
| s = pd.Series([0,np.nan,10], index=pd.to_datetime(['20200101', '20200102', '20200111'])) s
PYTHON
|
2020-01-01 0.0
2020-01-02 NaN
2020-01-11 10.0
dtype: float64
TEXT
2020-01-01 0.0
2020-01-02 5.0
2020-01-11 10.0
dtype: float64
TEXT
1
| s.interpolate(method='index')
PYTHON
|
2020-01-01 0.0
2020-01-02 1.0
2020-01-11 10.0
dtype: float64
TEXT
【NOTE】关于polynomial和spline插值的注意事项
在interpolate
中如果选用polynomial
的插值方法,它内部调用的是scipy.interpolate.interp1d(*,*,kind=order)
,这个函数内部调用的是make_interp_spline
方法,因此其实是样条插值而不是类似于numpy
中的polyfit
多项式拟合插值;而当选用spline
方法时,pandas
调用的是scipy.interpolate.UnivariateSpline
而不是普通的样条插值。这一部分的文档描述比较混乱,而且这种参数的设计也是不合理的,当使用这两类插值方法时,用户一定要小心谨慎地根据自己的实际需求选取恰当的插值方法。
#### 【END】 ## 三、Nullable类型 ### 1. 缺失记号及其缺陷
在python
中的缺失值用None
表示,该元素除了等于自己本身之外,与其他任何元素不相等:
在numpy
中利用np.nan
来表示缺失值,该元素除了不和其他任何元素相等之外,和自身的比较结果也返回False
:
值得注意的是,虽然在对缺失序列或表格的元素进行比较操作的时候,np.nan
的对应位置会返回False
,但是在使用equals
函数进行两张表或两个序列的相同性检验时,会自动跳过两侧表都是缺失值的位置,直接返回True
:
1 2 3 4
| s1 = pd.Series([1, np.nan]) s2 = pd.Series([1, 2]) s3 = pd.Series([1, np.nan]) s1 == 1
PYTHON
|
0 True
1 False
dtype: bool
TEXT
在时间序列的对象中,pandas
利用pd.NaT
来指代缺失值,它的作用和np.nan
是一致的(时间序列的对象和构造将在第十章讨论):
1
| pd.to_timedelta(['30s', np.nan])
PYTHON
|
TimedeltaIndex(['0 days 00:00:30', NaT], dtype='timedelta64[ns]', freq=None)
TEXT
1
| pd.to_datetime(['20200101', np.nan])
PYTHON
|
DatetimeIndex(['2020-01-01', 'NaT'], dtype='datetime64[ns]', freq=None)
TEXT
那么为什么要引入pd.NaT
来表示时间对象中的缺失呢?仍然以np.nan
的形式存放会有什么问题?在pandas
中可以看到object
类型的对象,而object
是一种混杂对象类型,如果出现了多个类型的元素同时存储在Series
中,它的类型就会变成object
。例如,同时存放整数和字符串的列表:
1
| pd.Series([1, 'two'])
PYTHON
|
0 1
1 two
dtype: object
TEXT
NaT
问题的根源来自于np.nan
的本身是一种浮点类型,而如果浮点和时间类型混合存储,如果不设计新的内置缺失类型来处理,就会变成含糊不清的object
类型,这显然是不希望看到的。
同时,由于np.nan
的浮点性质,如果在一个整数的Series
中出现缺失,那么其类型会转变为float64
;而如果在一个布尔类型的序列中出现缺失,那么其类型就会转为object
而不是bool
:
1
| pd.Series([1, np.nan]).dtype
PYTHON
|
1
| pd.Series([True, False, np.nan]).dtype
PYTHON
|
因此,在进入1.0.0
版本后,pandas
尝试设计了一种新的缺失类型pd.NA
以及三种Nullable
序列类型来应对这些缺陷,它们分别是Int, boolean
和string
。
2. Nullable类型的性质
从字面意义上看Nullable
就是可空的,言下之意就是序列类型不受缺失值的影响。例如,在上述三个Nullable
类型中存储缺失值,都会转为pandas
内置的pd.NA
:
1
| pd.Series([np.nan, 1], dtype = 'Int64')
PYTHON
|
0 <NA>
1 1
dtype: Int64
TEXT
1
| pd.Series([np.nan, True], dtype = 'boolean')
PYTHON
|
0 <NA>
1 True
dtype: boolean
TEXT
1
| pd.Series([np.nan, 'my_str'], dtype = 'string')
PYTHON
|
0 <NA>
1 my_str
dtype: string
TEXT
在Int
的序列中,返回的结果会尽可能地成为Nullable
的类型:
1
| pd.Series([np.nan, 0], dtype = 'Int64') + 1
PYTHON
|
0 <NA>
1 1
dtype: Int64
TEXT
1
| pd.Series([np.nan, 0], dtype = 'Int64') == 0
PYTHON
|
0 <NA>
1 True
dtype: boolean
TEXT
1
| pd.Series([np.nan, 0], dtype = 'Int64') * 0.5
PYTHON
|
0 NaN
1 0.0
dtype: float64
TEXT
对于boolean
类型的序列而言,其和bool
序列的行为主要有两点区别:
第一点是带有缺失的布尔列表无法进行索引器中的选择,而boolean
会把缺失值看作False
:
1 2 3 4 5
| s = pd.Series(['a', 'b']) s_bool = pd.Series([True, np.nan]) s_boolean = pd.Series([True, np.nan]).astype('boolean')
s[s_boolean]
PYTHON
|
第二点是在进行逻辑运算时,bool
类型在缺失处返回的永远是False
,而boolean
会根据逻辑运算是否能确定唯一结果来返回相应的值。那什么叫能否确定唯一结果呢?举个简单例子:True | pd.NA
中无论缺失值为什么值,必然返回True
;False | pd.NA
中的结果会根据缺失值取值的不同而变化,此时返回pd.NA
;False & pd.NA
中无论缺失值为什么值,必然返回False
。
0 True
1 <NA>
dtype: boolean
TEXT
0 True
1 True
dtype: boolean
TEXT
0 False
1 <NA>
dtype: boolean
TEXT
关于string
类型的具体性质将在下一章文本数据中进行讨论。
一般在实际数据处理时,可以在数据集读入后,先通过convert_dtypes
转为Nullable
类型:
1 2 3
| df = pd.read_csv('../data/learn_pandas.csv') df = df.convert_dtypes() df.dtypes
PYTHON
|
School string
Grade string
Name string
Gender string
Height float64
Weight Int64
Transfer string
Test_Number Int64
Test_Date string
Time_Record string
dtype: object
TEXT
3. 缺失数据的计算和分组
当调用函数sum, prod
使用加法和乘法的时候,缺失数据等价于被分别视作0和1,即不改变原来的计算结果:
1 2
| s = pd.Series([2,3,np.nan,4,5]) s.sum()
PYTHON
|
当使用累计函数时,会自动跳过缺失值所处的位置:
0 2.0
1 5.0
2 NaN
3 9.0
4 14.0
dtype: float64
TEXT
当进行单个标量运算的时候,除了np.nan ** 0
和1 ** np.nan
这两种情况为确定的值之外,所有运算结果全为缺失(pd.NA
的行为与此一致
),并且np.nan
在比较操作时一定返回False
,而pd.NA
返回pd.NA
:
另外需要注意的是,diff, pct_change
这两个函数虽然功能相似,但是对于缺失的处理不同,前者凡是参与缺失计算的部分全部设为了缺失值,而后者缺失值位置会被设为
0% 的变化率:
0 NaN
1 1.0
2 NaN
3 NaN
4 1.0
dtype: float64
TEXT
0 NaN
1 0.500000
2 0.000000
3 0.333333
4 0.250000
dtype: float64
TEXT
对于一些函数而言,缺失可以作为一个类别处理,例如在groupby, get_dummies
中可以设置相应的参数来进行增加缺失类别:
1 2
| df_nan = pd.DataFrame({'category':['a','a','b',np.nan,np.nan], 'value':[1,3,5,7,9]}) df_nan
PYTHON
|
|
category
|
value
|
0
|
a
|
1
|
1
|
a
|
3
|
2
|
b
|
5
|
3
|
NaN
|
7
|
4
|
NaN
|
9
|
1
| df_nan.groupby('category', dropna=False)['value'].mean()
PYTHON
|
category
a 2
b 5
NaN 8
Name: value, dtype: int64
TEXT
1
| pd.get_dummies(df_nan.category, dummy_na=True)
PYTHON
|
|
a
|
b
|
NaN
|
0
|
1
|
0
|
0
|
1
|
1
|
0
|
0
|
2
|
0
|
1
|
0
|
3
|
0
|
0
|
1
|
4
|
0
|
0
|
1
|
四、练习
Ex1:缺失值与类别的相关性检验
在数据处理中,含有过多缺失值的列往往会被删除,除非缺失情况与标签强相关。下面有一份关于二分类问题的数据集,其中X_1, X_2
为特征变量,y
为二分类标签。
1 2
| df = pd.read_csv('../data/missing_chi.csv') df.head()
PYTHON
|
|
X_1
|
X_2
|
y
|
0
|
NaN
|
NaN
|
0
|
1
|
NaN
|
NaN
|
0
|
2
|
NaN
|
NaN
|
0
|
3
|
43.0
|
NaN
|
0
|
4
|
NaN
|
NaN
|
0
|
X_1 0.855
X_2 0.894
y 0.000
dtype: float64
TEXT
1
| df.y.value_counts(normalize=True)
PYTHON
|
0 0.918
1 0.082
Name: y, dtype: float64
TEXT
事实上,有时缺失值出现或者不出现本身就是一种特征,并且在一些场合下可能与标签的正负是相关的。关于缺失出现与否和标签的正负性,在统计学中可以利用卡方检验来断言它们是否存在相关性。按照特征缺失的正例、特征缺失的负例、特征不缺失的正例、特征不缺失的负例,可以分为四种情况,设它们分别对应的样例数为。假若它们是不相关的,那么特征缺失中正例的理论值,就应该接近于特征缺失总数总体正例的比例,即:
其他的三种情况同理。现将实际值和理论值分别记作,那么希望下面的统计量越小越好,即代表实际值接近不相关情况的理论值:
可以证明上面的统计量近似服从自由度为的卡方分布,即。因此,可通过计算的概率来进行相关性的判别,一般认为当此概率小于时缺失情况与标签正负存在相关关系,即不相关条件下的理论值与实际值相差较大。
上面所说的概率即为统计学上关于列联表检验问题的值,
它可以通过scipy.stats.chi2.sf(S, 1)
得到。请根据上面的材料,分别对X_1, X_2
列进行检验。
Ex2:用回归模型解决分类问题
KNN
是一种监督式学习模型,既可以解决回归问题,又可以解决分类问题。对于分类变量,利用KNN
分类模型可以实现其缺失值的插补,思路是度量缺失样本的特征与所有其他样本特征的距离,当给定了模型参数n_neighbors=n
时,计算离该样本距离最近的个样本点中最多的那个类别,并把这个类别作为该样本的缺失预测类别,具体如下图所示,未知的类别被预测为黄色:

上面有色点的特征数据提供如下:
1 2
| df = pd.read_excel('../data/color.xlsx') df.head(3)
PYTHON
|
|
X1
|
X2
|
Color
|
0
|
-2.5
|
2.8
|
Blue
|
1
|
-1.5
|
1.8
|
Blue
|
2
|
-0.8
|
2.8
|
Blue
|
已知待预测的样本点为,那么预测类别可以如下写出:
1 2 3 4
| from sklearn.neighbors import KNeighborsClassifier clf = KNeighborsClassifier(n_neighbors=6) clf.fit(df.iloc[:,:2], df.Color) clf.predict([[0.8, -0.2]])
PYTHON
|
array(['Yellow'], dtype=object)
TEXT
- 对于回归问题而言,需要得到的是一个具体的数值,因此预测值由最近的个样本对应的平均值获得。请把上面的这个分类问题转化为回归问题,仅使用
KNeighborsRegressor
来完成上述的KNeighborsClassifier
功能。
- 请根据第1问中的方法,对
audit
数据集中的Employment
变量进行缺失值插补。
1 2
| df = pd.read_csv('../data/audit.csv') df.head(3)
PYTHON
|
|
ID
|
Age
|
Employment
|
Marital
|
Income
|
Gender
|
Hours
|
0
|
1004641
|
38
|
Private
|
Unmarried
|
81838.00
|
Female
|
72
|
1
|
1010229
|
35
|
Private
|
Absent
|
72099.00
|
Male
|
30
|
2
|
1024587
|
32
|
Private
|
Divorced
|
154676.74
|
Male
|
40
|