指点成金-最美分享吧

登录

机器学习:局部加权线性回归(Locally Weighted Linear Regression)

佚名 举报

篇首语:本文由小编为大家整理,主要介绍了机器学习:局部加权线性回归(Locally Weighted Linear Regression)相关的知识,希望对你有一定的参考价值。

线性回归

先复习一下线性回归的损失函数:

我们的目标是使该函数最小,用矩阵表示为:

对参数w求导得:

令上式等于0可估计出回归系数w得最优解:

但线性回归往往容易欠拟合,除了使用更复杂得函数拟合,还可以使用局部加权线性回归(locally weighted linear regression)

局部加权线性回归(LWLR)

在该算法中我们给待预测点附件得每个点赋予一定的权重,即在计算时我们更关注附近的数据,离的远的数据就不管了。
常使用高斯核来给数据点赋权重

高斯核

局部加权线性回归损失函数

同理,解的回归系数为损失函数对w求偏导,令偏导等于0求解w

回归系数

举个例子我们要拟合的数据如下,显然线性回归会欠拟合:

使用局部加权线性回归:

import matplotlib.pyplot as pltimport numpy as npimport mathdata = np.loadtxt("ex0.txt")def lwlr(testpoint, xArr, yArr, k):    m = xArr.shape[0]   # 有多少行,200    weights = np.mat(np.eye(m))  # (200,200)的单位矩阵    for j in range(m):        diffMat = testpoint - xArr[j, :]  # xArr的j行所有值        weights[j, j] = np.exp(diffMat * diffMat.T / (-2.0*k**2))  # 这一直说我没对齐,卡了半天,最后把输入的X,mat一下就好了    xTx = xArr.T * (weights * xArr)    if np.linalg.det(xTx) == 0.0:        print("矩阵为奇异矩阵,不能求逆")        return    ws = xTx.I * (xArr.T * (weights * yArr.T))    return testpoint * wsdef lwlrTest(testArr, xArr, yArr, k):    m = testArr.shape[0]  # 样本数200    yHat = np.zeros(m)  #    for i in range(m):        yHat[i] = lwlr(testArr[i], xArr, yArr, k)    return yHatX = np.mat(data[:, :2])y = np.mat(data[:, -1])yHat = lwlrTest(X, X, y, 0.01)  # 预测值yHatsrtInd = X[:, 1].argsort(0)  # 按特征的大小(x轴)排序,画折线图必须先排序, srtInd = [[151],[24]]xSort = X[srtInd][:, -1]plt.plot(xSort[:, -1], yHat[srtInd], c="r")plt.scatter(data[:, -2], data[:, -1])plt.show()


如果使用线性回归会欠拟合:

以上是关于机器学习:局部加权线性回归(Locally Weighted Linear Regression)的主要内容,如果未能解决你的问题,请参考以下文章