当前位置: 首页 > news >正文

赫章网站建设wordpress伪原创插件

赫章网站建设,wordpress伪原创插件,苏州建设银行招聘网站,上海生活门户网文章目录一、回归问题概述二、误差项定义三、独立同分布的假设四、似然函数的作用五、参数求解六、梯度下降算法七、参数更新方法八、优化参数设置一、回归问题概述 回归#xff1a;根据工资和年龄#xff0c;预测额度为多少 其中#xff0c;工资和年龄被称为特征#xff0… 文章目录一、回归问题概述二、误差项定义三、独立同分布的假设四、似然函数的作用五、参数求解六、梯度下降算法七、参数更新方法八、优化参数设置一、回归问题概述 回归根据工资和年龄预测额度为多少 其中工资和年龄被称为特征自变量额度被称为标签因变量 下图展示了线性回归特性其相当于Y aX1bX2c在此问题中就相当于一个三维空间中的二维平面我们希望找到一个二维平面尽可能接近所有点 二、误差项定义 下图展示了误差项的定义我们一般认为误差项越接近0越好 三、独立同分布的假设 误差 ε(i)\varepsilon^{(i)}ε(i) 是独立并且具有相同的分布 并且服从均值为0方差为 θ2\boldsymbol{\theta}^2θ2 的高斯分布独立张三和李四一起来贷款他俩没关系同分布: 他俩都来得是我们假定的这家银行高斯分布(正态分布) : 银行可能会多给也可能会少给但是绝大多数情况下 这个浮动不会太大极小情况下浮动会比较大符合正常情况 四、似然函数的作用 (1) 预测值与误差 : y(i)θTx(i)ε(i)y^{(i)}\theta^T x^{(i)}\varepsilon^{(i)}y(i)θTx(i)ε(i) (2) 由于误差服从高斯分布 : p(ϵ(i))12πσexp⁡(−(ϵ(i))22σ2)p\left(\epsilon^{(i)}\right)\frac{1}{\sqrt{2 \pi} \sigma} \exp \left(-\frac{\left(\epsilon^{(i)}\right)^2}{2 \sigma^2}\right)p(ϵ(i))2π​σ1​exp(−2σ2(ϵ(i))2​) 将 (1)(1)(1) 式带入 (2)(2)(2) 式: p(y(i)∣x(i);θ)12πσexp⁡(−(y(i)−θTx(i))22σ2)p\left(y^{(i)} \mid x^{(i)} ; \theta\right)\frac{1}{\sqrt{2 \pi} \sigma} \exp \left(-\frac{\left(y^{(i)}-\theta^T x^{(i)}\right)^2}{2 \sigma^2}\right)p(y(i)∣x(i);θ)2π​σ1​exp(−2σ2(y(i)−θTx(i))2​) 似然函数(独立同分布的前提下联合概率密度等于边缘概率密度的乘积) : L(θ)∏i1mp(y(i)∣x(i);θ)∏i1m12πσexp⁡(−(y(i)−θTx(i))22σ2)L(\theta)\prod_{i1}^m p\left(y^{(i)} \mid x^{(i)} ; \theta\right)\prod_{i1}^m \frac{1}{\sqrt{2 \pi} \sigma} \exp \left(-\frac{\left(y^{(i)}-\theta^T x^{(i)}\right)^2}{2 \sigma^2}\right)L(θ)i1∏m​p(y(i)∣x(i);θ)i1∏m​2π​σ1​exp(−2σ2(y(i)−θTx(i))2​) 解释 : 什么样的参数跟我们的数据组合后恰好是真实值 对数似然 : log⁡L(θ)log⁡∏i1m12πσexp⁡(−(y(i)−θTx(i))22σ2)\log L(\theta)\log \prod_{i1}^m \frac{1}{\sqrt{2 \pi} \sigma} \exp \left(-\frac{\left(y^{(i)}-\theta^T x^{(i)}\right)^2}{2 \sigma^2}\right)logL(θ)logi1∏m​2π​σ1​exp(−2σ2(y(i)−θTx(i))2​) 解释 : 乘法难解加法就容易了对数里面乘法可以转换成加法 五、参数求解 展开化简 : ∑i1mlog⁡12πσexp⁡(−(y(i)−θTx(i))22σ2)mlog⁡12πσ−1σ2⋅12∑i1m(y(i)−θTx(i))2\sum_{i1}^m \log \frac{1}{\sqrt{2 \pi} \sigma} \exp \left(-\frac{\left(y^{(i)}-\theta^T x^{(i)}\right)^2}{2 \sigma^2}\right) \\ m \log \frac{1}{\sqrt{2 \pi} \sigma}-\frac{1}{\sigma^2} \cdot \frac{1}{2} \sum_{i1}^m\left(y^{(i)}-\theta^T x^{(i)}\right)^2 i1∑m​log2π​σ1​exp(−2σ2(y(i)−θTx(i))2​)mlog2π​σ1​−σ21​⋅21​i1∑m​(y(i)−θTx(i))2 目标让似然函数对数变换后也一样 ) 越大越好 J(θ)12∑i1m(y(i)−θTx(i))2( 最小二乘法 ) J(\theta)\frac{1}{2} \sum_{i1}^m\left(y^{(i)}-\theta^T x^{(i)}\right)^2 \text { ( 最小二乘法 ) } J(θ)21​i1∑m​(y(i)−θTx(i))2 ( 最小二乘法 )  目标函数 : J(θ)12∑i1m(hθ(x(i))−y(i))212(Xθ−y)T(Xθ−y)J(\theta)\frac{1}{2} \sum_{i1}^m\left(h_\theta\left(x^{(i)}\right)-y^{(i)}\right)^2\frac{1}{2}(X \theta-y)^T(X \theta-y)J(θ)21​i1∑m​(hθ​(x(i))−y(i))221​(Xθ−y)T(Xθ−y) 求偏导: ∇θJ(θ)∇θ(12(Xθ−y)T(Xθ−y))∇θ(12(θTXT−yT)(Xθ−y))∇θ(12(θTXTXθ−θTXTy−yTXθyTy))12(2XTXθ−XTy−(yTX)T)XTXθ−XTy\begin{aligned} \quad \nabla_\theta J(\theta)\nabla_\theta\left(\frac{1}{2}(X \theta-y)^T(X \theta-y)\right) \\ \nabla_\theta\left(\frac{1}{2}\left(\theta^T X^T-y^T\right)(X \theta-y)\right) \\ \nabla_\theta\left(\frac{1}{2}\left(\theta^T X^T X \theta-\theta^T X^T y-y^T X \thetay^T y\right)\right) \\ \frac{1}{2}\left(2 X^T X \theta-X^T y-\left(y^T X\right)^T\right)X^T X \theta-X^T y \end{aligned} ∇θ​J(θ)​∇θ​(21​(Xθ−y)T(Xθ−y))∇θ​(21​(θTXT−yT)(Xθ−y))∇θ​(21​(θTXTXθ−θTXTy−yTXθyTy))21​(2XTXθ−XTy−(yTX)T)XTXθ−XTy​ 偏导等于0: θ(XTX)−1XTy\theta\left(X^T X\right)^{-1} X^T yθ(XTX)−1XTy 六、梯度下降算法 引入: 当我们得到了一个目标函数后如何进行求解? 直接求解 ? ( 并不一定可解线性回归可以当做是一个特例 ) 常规套路: 机器学习的套路就是我交给机器一堆数据, 然后告诉它 什么样的学习方式是对的目标函数然后让它朝着这个方向去做 如何优化: 一口吃不成个胖子我们要静悄悄的一步步的完成迭代 ( 每次优化一点点累积起来就是个大成绩了) 七、参数更新方法 目标函数 : J(θ0,θ1)12m∑i1m(hθ(x(i))−y(i))2J\left(\theta_0, \theta_1\right)\frac{1}{2 m} \sum_{i1}^m\left(h_\theta\left(x^{(i)}\right)-y^{(i)}\right)^2J(θ0​,θ1​)2m1​i1∑m​(hθ​(x(i))−y(i))2 寻找山谷的最低点也就是我们的目标函数终点 ( 什么样的参数能使得目标函数达到极值点) 下山分几步走呢? ( 更新参数 ) (1) : 找到当前最合适的方向 (2) : 走那么一小步走快了该 跌倒 了 (3)按照方向与步伐去更新我们的参数 批量梯度下降: ∂J(θ)∂θj−1m∑i1m(yi−hθ(xi))xjiθj′θj1m∑i1m(yi−hθ(xi))xji\frac{\partial J(\theta)}{\partial \theta_j}-\frac{1}{m} \sum_{i1}^m\left(y^i-h_\theta\left(x^i\right)\right) x_j^i \\ \theta_j^{\prime}\theta_j\frac{1}{m} \sum_{i1}^m\left(y^i-h_\theta\left(x^i\right)\right) x_j^i∂θj​∂J(θ)​−m1​i1∑m​(yi−hθ​(xi))xji​θj′​θj​m1​i1∑m​(yi−hθ​(xi))xji​ ( 容易得到最优解但是由于每次考虑所有样本速度很慢 ) 随机梯度下降 : θj′θj(yi−hθ(xi))xji\theta_j^{\prime}\theta_j\left(y^i-h_\theta\left(x^i\right)\right) x_j^iθj′​θj​(yi−hθ​(xi))xji​ (每次找一个样本迭代速度快但不一定每次都朝着收敛的方向 ) 小批量梯度下降法 : θj:θj−α110∑kii9(hθ(x(k))−y(k))xj(k)\theta_j:\theta_j-\alpha \frac{1}{10} \sum_{ki}^{i9}\left(h_\theta\left(x^{(k)}\right)-y^{(k)}\right) x_j^{(k)}θj​:θj​−α101​ki∑i9​(hθ​(x(k))−y(k))xj(k)​ (每次更新选择一小部分数据来算实用) 八、优化参数设置 学习率步长对结果产生巨大影响一般小一些 如何选择: 从小的时候不行再小 批处理数量 : 3264128 都可以很多 时候还得考虑内存和效率
http://www.hkea.cn/news/14356838/

相关文章:

  • 网站建设与维护试题大方网站制作
  • 上市公司做网站有什么用360永久免费建网站
  • 聚美优品网站建设目的最好的企业网站源码
  • 网站一年费用网站后台验证码无法显示
  • 写网站论文怎么做小程序定制公司外包
  • 淘宝客网站免费建站永久免费的手机ip代理
  • 长沙营销型网站聊城高端网站制作
  • dw如何制作多个网页seo技术网站建设
  • 重庆餐饮网站建设wordpress判断用户
  • 做网站难还是appwordpress 如何优化
  • 鲜花网站数据库建设分析物联网就业方向及前景
  • dz论坛网站模板下载福田专业做网站公司
  • 作风建设简报--门户网站宁波seo搜索引擎优化公司
  • 网站备案资料表建网站需要了解哪些网站建设知识
  • 新手建站教程视频网站开发 印花税
  • 网站栏目方案建设网站的3个必要条件
  • 猪八戒网站怎么做任务中卫网站建设报价
  • 果洛电子商务网站建设哪家快网站开发服务外包合同
  • 网站建设所需人力河南新闻头条最新事件
  • 旅游网站品牌建设不良人网页设计怎么做
  • 科技网站制作案例郑州网络seo
  • 在百度建免费网站公司注册资金100万要实缴吗
  • logo灵感网站推荐一个做照片书的网站
  • 陕西网站建设优化技术wordpress翻页相同内容
  • 游戏设计师网站有哪些五一自学网免费教程官网
  • 汶上网站建设哪家好百度怎么搜索网址打开网页
  • 手机网站建设推荐乐云seowordpress图片水印插件
  • 做图网站有哪些东西吗wordpress用什么服务
  • 专业的河南网站建设公司排名wordpress 固定导航菜单
  • 长治市郊区住房建设局网站网站建设电子合同模板