标准化与归一化 with Scikit-learn

1. 范数公式

  • L0 范数:所有非零元素个数

  • L1 范数:
    \left \| X \right \| = \sum_{i=1}^{n} \left | x_{i} \right |

  • L2 范数:
    \left \| X \right \|_{2} =\left (\sum_{i=1}^{n} \left ( xi \right )^{2} \right )^{1/2}

  • Lp 范数:
    \left \| X \right \|_{p} =\left (\sum_{i=1}^{n} \left ( xi \right )^{p} \right )^{1/p}

2. 标准化(Standardization)

对于一个数据集,如果其某些特征不服从正态分布,那么这些特征在建模时的表现力就会比较差。同时,在机器学习算法的目标函数(例如 SVM 的 RBF 内核或线性模型的 L1 和 L2 正则化),许多目标函数的基础都是假设所有的特征都是零均值并且具有同一阶数上的方差。如果某个特征的方差比其他特征大几个数量级,那么它对最终模型的影响将远大于其他小量级的特征,导致模型质量下降。

因此,在实际情况中,我们经常忽略特征的分布形状,直接经过去均值来对某个特征进行中心化,再通过除以非常量特征(non-constant features)的标准差进行缩放。下面的标准化公式就是这个原理。

2.1 基于标准差的标准化公式:

x^{(i)}_{std} = \frac{x^{(i)} - \mu }{\sigma }

2.2 scikit-learn 示例:

from sklearn.preprocessing import StandardScaler

X_scaled = StandardScaler().fit_transform(X)
  • scale 是更快捷的实现
from sklearn.preprocessing import scale

X_scaled = scale(X)

2.3 特定范围缩放的标准化:

一种标准化是将特征缩放到给定的最小值和最大值之间,通常在零和一之间,或者也可以将每个特征的最大绝对值转换至单位大小。可以分别使用 MinMaxScalerMaxAbsScaler 实现。这样的方式可以实现特征极小的方差, 提升训练的鲁棒性。

2.4 scikit-learn 示例

原理如下所示:

X_std = (X - X.min(axis=0)) / (X.max(axis=0) - X.min(axis=0))
X_scaled = X_std * (max - min) + min
from sklearn.preprocessing import MinMaxScaler

# 可通过feature_range参数指定缩放后的范围
X_scaled = MinMaxScaler(feature_range=(0, 1)).fit_transform(X)
  • MaxAbsScaler:根据每个特征最大值,将特征缩放至:[0, 1]。

2.5 大量离群值特征的标准化

当特征有大量离群值的时候,用均值和方差来做缩放很明显不大合适,这个时候可以选用RobustScaler,它利用基于 quantile 的方式进行缩放,对中心和范围有更好的估计,避免了离群值的影响。

2.6 稀疏矩阵的标准化

稀疏矩阵的标准化一直是个难题,没有很好地解决方式。因为去中心化会破坏稀疏矩阵的结构,所以比如用 StandardScaler 标准化的时候,其with_mean参数一定要设置为False


标准化比归一化要用的更多,因为像逻辑回归和支持向量机算法,刚开始训练的时候会将参数初始化为 0 或趋于 0 的随机极小值,如果是标准化的数据(均值为 0,方差为 1)对于它们而言,这更加容易利于权重的更新。

3. 归一化(Normalization)

归一化是缩放单个样本以具有单位范数的过程。范数的定义可以参考第一节。

归一化和标准化的最大区别在于: 标准化是基于特征的,是对一个特征的所有数据进行处理;而归一化是居于数据点的,是对于每个数据点(sample)做处理使 他们的范数等于 1。

scikit-learn 的实例类是Normalizer

from sklearn.preprocessing import Normalizer

# norm参数指定用的范数,默认是l2
X_scaled = Normalizer(norm='l1').fit_transform(X)

以上

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 158,117评论 4 360
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 66,963评论 1 290
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 107,897评论 0 240
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 43,805评论 0 203
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 52,208评论 3 286
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 40,535评论 1 216
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 31,797评论 2 311
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 30,493评论 0 197
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 34,215评论 1 241
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 30,477评论 2 244
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 31,988评论 1 258
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 28,325评论 2 252
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 32,971评论 3 235
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 26,055评论 0 8
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 26,807评论 0 194
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 35,544评论 2 271
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 35,455评论 2 266

推荐阅读更多精彩内容