MayMoon

随便写写


  • 首页

  • 分类

  • 归档

  • 标签

🔨核方法(Kernel Methods)

发表于 2000-05-16   |   分类于 Under Construction

1. 线性不可分

在机器学习中,以最简单的二分类问题为例,我们经常会遇到一些线性不可分的数据,比如下图

但如果将特征映射到另外一个(高维)空间中,数据就可能变成线性可分的了

假设我们现在有两个特征,即 $\mathbf{x}=(x_1,x_2)$,且用线性分类器 $y=\mathbf{w}^{\mathrm{T}}\mathbf{x}$ 无法将数据集 $\mathcal{D}=\{\mathbf{x}^{(1)},\cdots,\mathbf{x}^{(m)}\}$ 分开。但如果将输入数据映射到三维空间中:比方说 $\phi(\mathbf{x})=(x_1^2,\sqrt{2}x_1x_2,x_2^2)$,我们生成了一个新的数据集 $\mathcal{D}’=\{\phi(\mathbf{x}^{(1)}),\cdots,\phi(\mathbf{x}^{(m)})\}$,而它是可分的,分类器变成了 $y=\mathbf{w}^{\mathrm{T}}\phi(\mathbf{x})$(两个 $\mathbf{w}$ 含义不同),将其展开即为 $y=w_1x_1^2+w_2\sqrt{2}x_1x_2+w_3x_2^2$。可以看出,进行特征映射后,新的高维(三维)线性分类器在低维度(二维)上是非线性的,所以可以将原空间的非线性界线转换成高维的线性界线。

🔨第二章 和式

发表于 2000-05-16   |   分类于 Under Construction

2.1 记号 NOTATION

和式与项

一般形式的和式 $a_1 + a_2 + \cdots + a_n$

和式的每个元素 $a_k$ 称为项(term)

除了用···来表示和式,我们也可以用(很多时候的确在用)求和符号表示和式

阅读全文 »

🔨Softmax 回归(Softmax Regression)

发表于 2000-05-16   |   分类于 Under Construction
1…56
Wang Kx

Wang Kx

53 日志
9 分类
3 标签
© 2016 - 2017 Wang Kx
由 Hexo 强力驱动
主题 - NexT.Muse