郑州百度网站建设,武威 网站建设,wordpress+作品展,淘宝券搜索网站怎么做前文回顾#xff1a;机器学习概述#x1f4da;线性回归概念我们要使用一个数据集#xff0c;数据集包含俄勒冈州波特兰市的住房价格。在这里#xff0c;我要根据不同房屋尺寸所售出的价格#xff0c;画出我的数据集。比方说#xff0c;如果你朋友的房子是 1250 平方尺大小…前文回顾机器学习概述线性回归概念我们要使用一个数据集数据集包含俄勒冈州波特兰市的住房价格。在这里我要根据不同房屋尺寸所售出的价格画出我的数据集。比方说如果你朋友的房子是 1250 平方尺大小你要告诉他们这房子能卖多少钱。那么你可以做的一件事就是构建一个模型也许是条直线从这个数据模型上来看也许你可以告诉你的朋友他能以大约 220000(美元)左右的价格卖掉这个房子。这就是监督学习算法的一个例子。它被称作监督学习是因为对于每个数据来说我们给出了“正确的答案”即告诉我们根据我们的数据来说房子实际的价格是多少而且更具体来说这是一个回归问题。线性回归一种通过属性的线性组合来进行预测的线性模型其目的是找到一条直线或者一个平面或者更高维的超平面使得预测值与真实值之间的误差最小化。符号约定这里x/y的上标指的是索引表示第几行/第几列算法流程损失函数度量单样本预测的错误程度损失函数值越小模型就越好。代价函数度量全部样本集的平均误差。目标函数代价函数和正则化函数最终要优化的函数。单变量回归下式为一种可能的表达式因为只有一个输入变量因此这样的问题叫做单变量线性回归问题。代价函数通过训练集我们可以得到假设函数h即我们建立的模型y是测试集。通过输入测试集的自变量向函数h和y,得出预测出来的结果与实际的结果让两者相减得到误差。通过误差可以看出我们预测的结果好还是不好如果误差小于某一个极小数时我们可以认为我们建立的模型非常成功反之则是失败。求和的目的是把所有预测值的误差加起来平方的目的是保证求和的时候误差是正数除以m是求平均误差除以2是为了计算方便有没有这个2最后所求出的最小代价对应的假设函数都是一样的。假设函数与代价函数的关系梯度下降梯度下降的目的即求代价函数的最小值。且梯度下降有种“动态规划”的意思。理解“梯度下降”:我们把它想象成“下山”的场景。如何从山上尽快下山❓以我们所在的位置为基准寻找该位置最陡峭(即变化最快)的方向然后沿该方向走一段路程并且每走一段路程都要重新寻找当前位置最陡峭(即变化最快)的方向然后沿新的方向再走一段路程反复采用以上的方法就能以最快的速度走到山脚下。背后的数学原理梯度下降的直观感受在梯度下降法中当我们接近局部最低点时梯度下降法会自动采取更小的幅度这是因为当我们接近局部最低点时很显然在局部最低点时导数等于0所以当我们接近局部最低时导数值会自动变得越来越小所以梯度下降将采取较小的幅度这就是梯度下降的做法所以实际上没有必要再另外减小α。线性回归的梯度下降我们将梯度下降和代价函数结合将其应用于具体的拟合直线的线性回归算法里。梯度下降算法和线性回归算法对我们之前的线性回归问题运用梯度下降法关键在于求出代价函数的导数即在下山的过程中我们每走一段路就要确定新的方向不断确定新的方向意味着代价函数的参数不断在变化而新的参数又在已知旧的参数的基础上获得。在梯度下降的每一步中我们都用到了所有的训练样本我们需要不断重复更新参数的过程是批量梯度下降。参考学习链接【中英字幕】吴恩达机器学习系列课程本篇对应2.1-2.7富文本编辑器电脑里头的LaTeX公式在手机平板看就错行只能额外加一步截图——不乐。电脑富文本编辑器里头引用里边不能插图片——不乐。电脑富文本编辑器里开的草稿在手机平板内容编辑里都会出现混乱打开的总是别的文章——不乐。