Skip to content

Linear Regression

标签
ML
AI
字数
412 字
阅读时间
2 分钟

本节来介绍基于最小二乘法的线性回归。

情景描述

真实的x,y存在这样的关系:

y=f(x,ω)+ϵ

其中,f(x,w) 是基准的线性,epsilon是固有噪音,这玩意没法确定。有了这个噪音,你的真实标签看起来就是这样的:

度为1的OLS

degree为1,说明w只有一个,外带一个截距。所以我们假设目标函数是这样的:

y^i=ω0+ω1xi

那么损失如果用MSE的话,就是这样的:

R(ω)=i=1Nri2=i=1N(yiy^i(xi,ω))2

为了最小化损失,所以求导:

R(ω0,ω1)ω0=0R(ω0,ω1)ω1=0

求导得到的结果如下:

i=1Nxiyi=ω0i=1Nxi+ω1i=1Nxi2i=1Nyi=ω0N+ω1i=1Nxi

写成矩阵形式就是这样:

(iNxiyiiNyi)=(iNxiiNxi2NiNxi)(ω0ω1)

解就是这样:

(ω0ω1)=(iNxiiNxi2NiNxi)1(iNxiyiiNyi)

任意degree OLS

定义目标函数为这样:

y^i(xi,ω)=i=0Mωjϕj(xi)=ωTϕ(xi)ω=(ω0ω1ωM),ϕ=(ϕ0(xi)ϕ1(xi)ϕM(xi))

其中phi是非线性变化,phi0(xi) = 1。 求导为0得到结果:

R(ω)ω=i=1N(yiωTϕ(xi))ϕ(xi)T=0,i=1NyiϕT(xi)=ωT(i=1Nϕ(xi)ϕT(xi))

如果我们记 design matrix Φ为:

Φ=(ϕ0(x1)ϕ1(x1)ϕM(x1)ϕ0(x2)ϕ1(x2)ϕM(x2)ϕ0(xN)ϕ1(xN)ϕM(xN))

那么上面的带求和的式子就可以写为:

ωOLS=(ΦTΦ)1ΦTy

然而,由于 Φ 很大的时候,其逆很难算。所以在适当时你应该使用 梯度下降。 当梯度下降时,你可以用这些cost function:

非线性嵌入

这里介绍四种非线性嵌入:

贡献者

文件历史