当前位置: 首页 > news >正文

如何在网络上推广产品网站的seo优化报告

如何在网络上推广产品,网站的seo优化报告,wordpress怎么注册用户名,免费制作h5页面平台文章目录 4.1 感知机基本概念4.2 策略4.2.1 数据集的线性可分性4.2.2 学习策略目标损失函数的构造关于距离的解释 4.3 算法4.3.1 原始形式损失函数的梯度下降法 4.3.2 PLA例题4.3.3 算法收敛性 4.4 PLA对偶形式4.4.1 原始PLA分析4.4.2 PLA对偶形式4.4.3 优点 4.1 感知机基本概念… 文章目录 4.1 感知机基本概念4.2 策略4.2.1 数据集的线性可分性4.2.2 学习策略目标损失函数的构造关于距离的解释 4.3 算法4.3.1 原始形式损失函数的梯度下降法 4.3.2 PLA例题4.3.3 算法收敛性 4.4 PLA对偶形式4.4.1 原始PLA分析4.4.2 PLA对偶形式4.4.3 优点 4.1 感知机基本概念 解决二分类问题属于 线性分类模型——判别模型 目标求出将训练数据进行线性划分的分离超平面 基本思想导入五分类的损失函数利用梯度下降法对损失i函数极小化求得感知机模型 输入 x ∈ X ⊆ R n x\in \mathcal{X}\subseteq R^n x∈X⊆Rn 表示实例的特征向量 y ∈ Y { 1 , − 1 } y\in \mathcal{Y}\{1, -1\} y∈Y{1,−1} 输出 ω ^ , b ^ \hat{\omega},\hat{b} ω^,b^ 模型——决策函数 f ( x ) s i g n ( ω T x b ) { 1 , ω T x 0 − 1 , ω T x 0 f(x)sign(\omega^Txb)\begin{cases} 1,\omega^Tx 0\\ -1,\omega^Tx0 \end{cases} f(x)sign(ωTxb){1−1​,ωTx0,ωTx0​ 假设空间定义在特征空间中的所有线性分类模型 { f ∣ f ( x ) ω T x b } \{f\vert f(x)\omega^Txb\} {f∣f(x)ωTxb} 几何理解 ω T x b 0 \omega^Txb0 ωTxb0 在空间中为一个超平面 S S S ω \omega ω 为法向量 b b b 为截距 上图中超平面 S : ω 1 x ( 1 ) ω 2 x ( 2 ) b 0 S:\omega_1x^{(1)}\omega_2x^{(2)}b0 S:ω1​x(1)ω2​x(2)b0 这个超平面将特征空间分为 1 , − 1 1,-1 1,−1 类 4.2 策略 损失函数的定义并将 J ( ω ) J(\omega) J(ω) 最小化 4.2.1 数据集的线性可分性 对于数据集 D { ( x 1 , y 1 ) , ( x 2 , y 2 ) , ⋯ , ( x N , y N ) } x i ∈ X ⊆ R n , y i ∈ Y { 1 , − 1 } , i 1 , 2 , ⋯ , N D\{(x_1,y_1),(x_2,y_2),\cdots,(x_N,y_N)\}\\ x_i\in \mathcal{X}\subseteq R^n,y_i\in\mathcal{Y}\{1,-1\},i1,2,\cdots,N D{(x1​,y1​),(x2​,y2​),⋯,(xN​,yN​)}xi​∈X⊆Rn,yi​∈Y{1,−1},i1,2,⋯,N 若存在某个超平面 S S S ω T x b 0 \omega^Txb0 ωTxb0 将数据正负两类完全划分到超平面两侧 对于正例 y i 1 y_i1 yi​1 有 ω T x b 0 \omega^Txb0 ωTxb0对于负例 y i − 1 y_i-1 yi​−1 有 ω T x b 0 \omega^Txb0 ωTxb0 4.2.2 学习策略 目标 假设数据集D线性可分找到将数据集D正负两例完全正确分开的超平面S即确定参数 ω ^ , b ^ \hat{\omega},\hat{b} ω^,b^ 损失函数的构造 可选择 误分类点的总数但不关于 ω , b \omega,b ω,b 可导是离散的误分类点到超平面 S S S 的距离和 点 x i x_i xi​ 到平面 S S S 的总距离 ω T x i b ∥ ω ∥ 2 \frac{\omega^Tx_ib}{\Vert \omega\Vert_2} ∥ω∥2​ωTxi​b​ 对于误分类点有 y i ⋅ ( ω T x i b ) 0 ⟺ − y i ⋅ ( ω T x i b ) 0 y_i\cdot(\omega^Tx_ib)0\iff -y_i\cdot(\omega^Tx_ib)0 yi​⋅(ωTxi​b)0⟺−yi​⋅(ωTxi​b)0 对于误分类点到超平面的几何距离为 − 1 ∥ ω ∥ 2 y i ⋅ ( ω T x i b ) -\frac{1}{\Vert \omega\Vert_2}y_i\cdot(\omega^Tx_ib) −∥ω∥2​1​yi​⋅(ωTxi​b) 若所有误分类点集合为 M M M 则误分类点到 S S S 的距离和为 − 1 ∥ ω ∥ 2 ∑ x i ∈ M y i ⋅ ( ω T x i b ) -\frac{1}{\Vert \omega\Vert_2}\sum\limits_{x_i\in M}y_i\cdot(\omega^Tx_ib) −∥ω∥2​1​xi​∈M∑​yi​⋅(ωTxi​b) 故将感知机损失函数定义为经验风险函数 R e m p ( f ) L ( ω , b ) − ∑ x i ∈ M y i ⋅ ( ω T x i b ) R_{emp}(f)L(\omega,b)-\sum\limits_{x_i\in M}y_i\cdot(\omega^Tx_ib) Remp​(f)L(ω,b)−xi​∈M∑​yi​⋅(ωTxi​b) 策略为 在假设空间中选取使损失函数 L ( ω , b ) L(\omega,b) L(ω,b) 最小的模型参数 ω , b \omega,b ω,b 损失函数非负误分类点数量越少越好误分类点离超平面越近越好 L ( ω , b ) L(\omega,b) L(ω,b) 是连续可导的 关于距离的解释 − 1 ∥ ω ∥ 2 y i ⋅ ( ω T x i b ) -\frac{1}{\Vert \omega\Vert_2}y_i\cdot(\omega^Tx_ib) −∥ω∥2​1​yi​⋅(ωTxi​b) 为几何距离 − y i ⋅ ( ω T x i b ) -y_i\cdot(\omega^Tx_ib) −yi​⋅(ωTxi​b) 为函数距离 几何距离的系数 1 ∥ ω ∥ 2 \frac{1}{\Vert \omega\Vert_2} ∥ω∥2​1​ 可以抵消系数同时放大的影响如 a X b Y c 0 aXbYc0 aXbYc0 与 2 a X 2 b Y 2 c 0 2aX2bY2c0 2aX2bY2c0 但会增加梯度下降法计算的复杂度 PLA的目标是使误分类点个数最小 1 ∥ ω ∥ 2 \frac{1}{\Vert \omega\Vert_2} ∥ω∥2​1​ 对分类结果无影响 选取不同的初始 ω , b \omega,b ω,b 最终会迭代出不同的超平面 4.3 算法 用随机梯度下降法求解损失函数最优化问题 4.3.1 原始形式 输入训练数据集 D { ( x 1 , y 1 ) , ( x 2 , y 2 ) , ⋯ , ( x N , y N ) } x i ∈ X ⊆ R n , y i ∈ Y { 1 , − 1 } , i 1 , 2 , ⋯ , N D\{(x_1,y_1),(x_2,y_2),\cdots,(x_N,y_N)\}\\ x_i\in \mathcal{X}\subseteq R^n,y_i\in \mathcal{Y}\{1,-1\},i1,2,\cdots,N D{(x1​,y1​),(x2​,y2​),⋯,(xN​,yN​)}xi​∈X⊆Rn,yi​∈Y{1,−1},i1,2,⋯,N 输出 ω ^ , b ^ \hat{\omega},\hat{b} ω^,b^ 模型 f ( x ) s i g n ( ω T x b ) { 1 , ω T x b 0 − 1 , ω T x b 0 f(x)sign(\omega^Txb)\begin{cases} 1,\omega^Txb0\\ -1,\omega^Txb0\\ \end{cases} f(x)sign(ωTxb){1−1​,ωTxb0,ωTxb0​ 策略 a r g min ⁡ ω , b L ( ω , b ) − ∑ x i ∈ M y i ⋅ ( ω T x i b ) arg\min\limits_{\omega,b}L(\omega,b)-\sum\limits_{x_i\in M}y_i\cdot(\omega^Tx_ib) argω,bmin​L(ω,b)−xi​∈M∑​yi​⋅(ωTxi​b) 步骤 选取随机的 ω 0 , b 0 \omega_0,b_0 ω0​,b0​ 在训练集中选数据 ( x i , y i ) (x_i,y_i) (xi​,yi​) 将误分类点作为训练数据即满足 ω T x i b 0 \omega^Tx_ib0 ωTxi​b0 的条件的点 ω [ t 1 ] ← ω [ t ] − η ∂ L ∂ ω ω [ t ] η y i x i b [ t 1 ] ← b [ t ] − η ∂ L ∂ b b [ t ] η y i \omega^{[t1]}\leftarrow\omega^{[t]}-\eta\frac{\partial L}{\partial \omega}\omega^{[t]}\eta y_ix_i\\ b^{[t1]}\leftarrow b^{[t]}-\eta\frac{\partial L}{\partial b}b^{[t]}\eta y_i ω[t1]←ω[t]−η∂ω∂L​ω[t]ηyi​xi​b[t1]←b[t]−η∂b∂L​b[t]ηyi​ 转至 2 2 2 步直至 D D D 中无误分类点 损失函数的梯度下降法 { ▽ ω L ( ω , b ) − ∑ x i ∈ M y i x i ▽ b L ( ω , b ) − ∑ x i ∈ M y i \begin{cases} \bigtriangledown_{\omega}L(\omega,b)-\sum\limits_{x_i\in M}y_ix_i\\ \bigtriangledown_{b}L(\omega,b)-\sum\limits_{x_i\in M}y_i\\ \end{cases} ⎩ ⎨ ⎧​▽ω​L(ω,b)−xi​∈M∑​yi​xi​▽b​L(ω,b)−xi​∈M∑​yi​​ 前提是误分类点集合是固定的 才可进行梯度下降法最优化 { ω ← ω − η ▽ ω L b ← b − η ▽ b L \begin{cases} \omega\leftarrow \omega-\eta\bigtriangledown_{\omega}L\\ b\leftarrow b-\eta\bigtriangledown_{b}L \end{cases} {ω←ω−η▽ω​Lb←b−η▽b​L​ 这种做法 计算量大且调整参数 ω , b \omega,b ω,b 后误分类点集可能会发生变化故用随机梯度下降法 直观理解 当一个样本点被误分类时调整 ω , b \omega,b ω,b 的值使超平面 S S S 向该误分类点的一侧移动减少该误分类点与 S S S 的距离直至超平面越过此点分类正确 4.3.2 PLA例题 x 1 ( 3 , 3 ) T , y 1 1 x 2 ( 4 , 3 ) T , y 2 1 x 3 ( 1 , 1 ) T , y 3 − 1 x_1(3,3)^T,y_11\\ x_2(4,3)^T,y_21\\ x_3(1,1)^T,y_3-1\\ x1​(3,3)T,y1​1x2​(4,3)T,y2​1x3​(1,1)T,y3​−1 模型 f ( x ) s i g n ( ω T x b ) { 1 , ω T x b 0 − 1 , ω T x b 0 ω ( ω 1 ω 2 ) f(x)sign(\omega^Txb)\begin{cases} 1,\omega^Txb0\\ -1,\omega^Txb0 \end{cases}\\ \omega\left( \begin{aligned} \omega_1\\ \omega_2 \end{aligned} \right) f(x)sign(ωTxb){1−1​,ωTxb0,ωTxb0​ω(ω1​ω2​​) PLA策略为 min ⁡ ω , b L ( ω , b ) − ∑ x i ∈ M y i ( ω T ⋅ x b ) \min\limits_{\omega,b}L(\omega,b)-\sum\limits_{x_i\in M}y_i(\omega^T\cdot xb) ω,bmin​L(ω,b)−xi​∈M∑​yi​(ωT⋅xb) 算法 取初值 ω 0 ( 0 0 ) \omega_0\left(\begin{aligned}0\\0\end{aligned}\right) ω0​(00​) b 0 0 b_00 b0​0 η 1 \eta1 η1 对 x 1 ( 3 , 3 ) T x_1(3,3)^T x1​(3,3)T 有 y 1 ( ω 1 [ 0 ] x 1 ( 1 ) ω 2 [ 0 ] x 1 ( 2 ) b [ 0 ] ) 0 y_1(\omega_1^{[0]}x_1^{(1)}\omega_2^{[0]}x_1^{(2)}b^{[0]})0 y1​(ω1[0]​x1(1)​ω2[0]​x1(2)​b[0])0 未分类正确故更新 { ω [ 1 ] ← ω [ 0 ] − η ∂ L ∂ ω ω [ 0 ] η y i x i ( 0 0 ) ( 3 3 ) ( 3 3 ) b [ 1 ] ← b [ 0 ] − η ∂ L ∂ b b [ 0 ] η y i 0 1 ⋅ 1 1 \begin{cases} \omega^{[1]}\leftarrow\omega^{[0]}-\eta\frac{\partial L}{\partial \omega}\omega^{[0]}\eta y_ix_i \left( \begin{aligned} 0\\0 \end{aligned} \right)\left( \begin{aligned} 3\\3 \end{aligned} \right)\left( \begin{aligned} 3\\3 \end{aligned} \right)\\ b^{[1]}\leftarrow b^{[0]}-\eta\frac{\partial L}{\partial b}b^{[0]}\eta y_i01\cdot 11 \end{cases} ⎩ ⎨ ⎧​ω[1]←ω[0]−η∂ω∂L​ω[0]ηyi​xi​(00​)(33​)(33​)b[1]←b[0]−η∂b∂L​b[0]ηyi​01⋅11​ 故有线性模型 ω 1 T ⋅ x b 1 3 x ( 1 ) 3 x ( 2 ) 1 \omega_1^{T}\cdot xb_13x^{(1)}3x^{(2)}1 ω1T​⋅xb1​3x(1)3x(2)1 对 x 2 ( 4 , 3 ) T , ( ω 1 [ 1 ] x 2 ω 2 [ 1 ] x 2 b [ 1 ] ) y 2 0 x_2(4,3)^T,(\omega_1^{[1]}x_2\omega_2^{[1]}x_2b^{[1]})y_20 x2​(4,3)T,(ω1[1]​x2​ω2[1]​x2​b[1])y2​0 正确分类 x 3 ( 1 , 1 ) T , ( ω 1 [ 1 ] x 3 ω 2 [ 1 ] x 3 b [ 1 ] ) y 3 0 x_3(1,1)^T,(\omega_1^{[1]}x_3\omega_2^{[1]}x_3b^{[1]})y_30 x3​(1,1)T,(ω1[1]​x3​ω2[1]​x3​b[1])y3​0 误分类。用 ( x 3 , y 3 ) (x_3,y_3) (x3​,y3​) 更新模型参数 { ω [ 2 ] ← ω [ 1 ] − η ∂ L ∂ ω ω [ 1 ] η y 3 x 3 ( 3 3 ) ( − 1 ) ( 1 1 ) ( 2 2 ) b [ 1 ] ← b [ 0 ] − η ∂ L ∂ b b [ 0 ] η y 3 1 1 ⋅ ( − 1 ) 0 \begin{cases} \omega^{[2]}\leftarrow\omega^{[1]}-\eta\frac{\partial L}{\partial \omega}\omega^{[1]}\eta y_3x_3 \left( \begin{aligned} 3\\3 \end{aligned} \right)(-1)\left( \begin{aligned} 1\\1 \end{aligned} \right)\left( \begin{aligned} 2\\2 \end{aligned} \right)\\ b^{[1]}\leftarrow b^{[0]}-\eta\frac{\partial L}{\partial b}b^{[0]}\eta y_311\cdot (-1)0 \end{cases} ⎩ ⎨ ⎧​ω[2]←ω[1]−η∂ω∂L​ω[1]ηy3​x3​(33​)(−1)(11​)(22​)b[1]←b[0]−η∂b∂L​b[0]ηy3​11⋅(−1)0​ 有线性模型 ω 1 [ 2 ] x 1 ω 2 [ 2 ] x 2 0 ⟺ 2 x 1 2 x 2 0 ⟺ x 1 x 2 0 \omega^{[2]}_1x_1\omega^{[2]}_2x_20\iff 2x_12x_20\iff x_1x_20 ω1[2]​x1​ω2[2]​x2​0⟺2x1​2x2​0⟺x1​x2​0 对 ( x 1 , y 1 ) , ( x 2 , y 2 ) , ( x 3 , y 3 ) (x_1,y_1),(x_2,y_2),(x_3,y_3) (x1​,y1​),(x2​,y2​),(x3​,y3​) 代入线性模型反复迭代 直至无误分类样本点有 ω [ 7 ] ( 1 1 ) , b [ 7 ] − 3 \omega^{[7]}\left( \begin{aligned} 1\\1 \end{aligned} \right),b^{[7]}-3 ω[7](11​),b[7]−3 超平面为 x ( 1 ) x ( 2 ) − 3 0 x^{(1)}x^{(2)}-30 x(1)x(2)−30 4.3.3 算法收敛性 对于线性可分的训练数据集经过有限次迭代(PLA可以在有限步终止) 可以得到一个将训练数据集完全正确划分的超平面 S S S 定理 训练集 D { ( x 1 , y 1 ) , ( x 2 , y 2 ) , ⋯ , ( x N , y N ) } D\{(x_1,y_1),(x_2,y_2),\cdots,(x_N,y_N)\} D{(x1​,y1​),(x2​,y2​),⋯,(xN​,yN​)} 对于二分类模型 x i ∈ X ⊆ R n x_i\in \mathcal{X}\subseteq R^n xi​∈X⊆Rn y i ∈ Y { 1 , − 1 } y_i\in \mathcal{Y}\{1,-1\} yi​∈Y{1,−1} , i 1 , 2 , ⋯ , N ,i1,2,\cdots,N ,i1,2,⋯,N 一定存在 ∥ ω ^ ∗ ∥ 1 \Vert \hat{\omega}_*\Vert1 ∥ω^∗​∥1 的超平面 ω ^ ∗ x T 0 \hat{\omega}_*x^T0 ω^∗​xT0 将数据完全正确划分且存在 γ 0 \gamma 0 γ0 使 y i ( ω ^ ∗ x T ) ≥ γ ω ^ ( ω ∗ b ∗ ) , x ( x 1 ) y_i(\hat{\omega}_*x^T)\ge \gamma\\ \hat{\omega}\left(\begin{aligned} \omega_*\\ b_* \end{aligned} \right),x\left( \begin{aligned} x\\1 \end{aligned} \right) yi​(ω^∗​xT)≥γω^(ω∗​b∗​​),x(x1​) 证由于线性可分则可找到一个超平面 S : ω ^ ∗ x T 0 S:\hat{\omega}_*x^T0 S:ω^∗​xT0 使所有数据 y i ( ω ^ ∗ x T ) 0 y_i(\hat{\omega}_*x^T)0 yi​(ω^∗​xT)0 分类正确 可取 γ min ⁡ i { y i ( ω ^ ∗ x T ) } \gamma\min\limits_{i}\{y_i(\hat{\omega}_*x^T)\} γimin​{yi​(ω^∗​xT)} 距离超平面最近的点 令 R max ⁡ 1 ≤ i ≤ N ∥ x i ∥ 2 R\max\limits_{1\le i\le N}\Vert x_i\Vert_2 R1≤i≤Nmax​∥xi​∥2​ 样本特征值最大的二范数 则PLA在训练数据集上误分类次数 k k k 满足 K ≤ ( R γ ) 2 K\le \left(\frac{R}{\gamma}\right)^2 K≤(γR​)2 即离超平面越近的点越难分 感知机存在许多解依赖于初值的选择 即误分类点的选择次序会影响最终的结果 4.4 PLA对偶形式 4.4.1 原始PLA分析 在原始 PLA 算法中 ω 0 , b 0 0 \omega_0,b_00 ω0​,b0​0 L ( ω , b ) − ∑ x i ∈ M y i ( ω T ⋅ x b ) L(\omega,b)-\sum\limits_{x_i\in M}y_i(\omega^T\cdot xb) L(ω,b)−xi​∈M∑​yi​(ωT⋅xb) 采用随机梯度下降算法取一个误分类点 ( x i , y i ) (x_i,y_i) (xi​,yi​) 作为学习数据 η ∈ ( 0 , 1 ] \eta\in(0,1] η∈(0,1] 为学习率 { ω [ t 1 ] ← ω [ t ] − η ∂ L ∂ ω ω [ t ] η y i x i b [ t 1 ] ← b [ t ] − η ∂ L ∂ b b [ t ] η y i \begin{cases} \omega^{[t1]}\leftarrow\omega^{[t]}-\eta\frac{\partial L}{\partial \omega}\omega^{[t]}\eta y_ix_i\\ b^{[t1]}\leftarrow b^{[t]}-\eta\frac{\partial L}{\partial b}b^{[t]}\eta y_i \end{cases} {ω[t1]←ω[t]−η∂ω∂L​ω[t]ηyi​xi​b[t1]←b[t]−η∂b∂L​b[t]ηyi​​ 可见 ω \omega ω 更新至于误分类点有关 某个点使用次数越多距超平面越近越难正确分类 假设 ( x i , y i ) (x_i,y_i) (xi​,yi​) 被误分类 n i n_i ni​ 次则 ω \omega ω 在 ( x i , y i ) (x_i,y_i) (xi​,yi​) 上的累积量为 { ω i ← n i η y i x i α i y i x i b i ← n i η y i α i y i \begin{cases} \omega_i\leftarrow n_i\eta y_ix_i\alpha_iy_ix_i\\ b_i\leftarrow n_i\eta y_i\alpha_iy_i \end{cases} {ωi​←ni​ηyi​xi​αi​yi​xi​bi​←ni​ηyi​αi​yi​​ 且对于正确分类的点 n i 0 n_i0 ni​0 故原始PLA参数可表示为 { ω ← ∑ j 1 N n j η y j ⋅ x j b ← ∑ j 1 N n j η y j \begin{cases} \omega\leftarrow \sum\limits_{j1}^Nn_j\eta y_j\cdot x_j\\ b\leftarrow \sum\limits_{j1}^N n_j\eta y_j \end{cases} ⎩ ⎨ ⎧​ω←j1∑N​nj​ηyj​⋅xj​b←j1∑N​nj​ηyj​​ 4.4.2 PLA对偶形式 输入 D { ( x 1 , y 1 ) , ( x 2 , y 2 ) , ⋯ , ( x N , y N ) } , x i ∈ X ⊆ R n , y i ∈ Y { 1 , − 1 } , i 1 , 2 , ⋯ , N D\{(x_1,y_1),(x_2,y_2),\cdots,(x_N,y_N)\},x_i\in \mathcal{X}\subseteq R^n,y_i\in \mathcal{Y}\{1,-1\},i1,2,\cdots,N D{(x1​,y1​),(x2​,y2​),⋯,(xN​,yN​)},xi​∈X⊆Rn,yi​∈Y{1,−1},i1,2,⋯,N η ∈ ( 0 , 1 ] \eta\in (0,1] η∈(0,1] 模型 f ( x ) s i g n [ ( ∑ j 1 N n j η y j ⋅ x j ) T ⋅ x ∑ j 1 N n j η y j ] s i g n [ ∑ j 1 N α j y j ( x j ⋅ x ) T b ] \begin{aligned} f(x)sign[(\sum\limits_{j1}^Nn_j\eta y_j\cdot x_j)^T\cdot x\sum\limits_{j1}^N n_j\eta y_j]\\ sign[\sum\limits_{j1}^N\alpha_j y_j(x_j\cdot x)^Tb] \end{aligned} f(x)​sign[(j1∑N​nj​ηyj​⋅xj​)T⋅xj1∑N​nj​ηyj​]sign[j1∑N​αj​yj​(xj​⋅x)Tb]​ 输出 α , b \alpha,b α,b α ( α 1 α 2 ⋮ α N ) \alpha\left(\begin{aligned}\alpha_1\\\alpha_2\\\vdots\\\alpha_N\end{aligned}\right) α ​α1​α2​⋮αN​​ ​ α i n i η \alpha_in_i\eta αi​ni​η n i n_i ni​ 为 ( x i , y i ) (x_i,y_i) (xi​,yi​) 被误分类的次数 步骤 ∀ n i 0 \forall n_i0 ∀ni​0 即 α 0 , b 0 \alpha0,b0 α0,b0 选取 ( x i , y i ) (x_i,y_i) (xi​,yi​) 若 y i [ ∑ j 1 N n j η y j ( x j T ⋅ x ) ∑ j 1 N n j η y j ] ≤ 0 y_i[\sum\limits_{j1}^Nn_j\eta y_j(x_j^T\cdot x)\sum\limits_{j1}^N n_j\eta y_j]\le 0 yi​[j1∑N​nj​ηyj​(xjT​⋅x)j1∑N​nj​ηyj​]≤0 则令 n [ t 1 ] ← n [ t ] 1 α [ t 1 ] ← α [ t ] η b [ t 1 ] ← b [ t ] η y i n^{[t1]}\leftarrow n^{[t]}1\\ \alpha^{[t1]}\leftarrow \alpha^{[t]}\eta\\ b^{[t1]}\leftarrow b^{[t]}\eta y_i n[t1]←n[t]1α[t1]←α[t]ηb[t1]←b[t]ηyi​ 转至 2. 2. 2. 直至没有误分类点 由于样本点只以内积形式出现可计算 Gram矩阵 G [ x i ⋅ x j ] N × N [ ( x 1 , x 1 ) ( x 1 , x 2 ) ⋯ ( x 1 , x N ) ( x 2 , x 1 ) ( x 2 , x 2 ) ⋯ ( x 2 , x N ) ⋮ ⋮ ⋱ ⋮ ( x N , x 1 ) ( x N , x 2 ) ⋯ ( x N , x N ) ] G[x_i\cdot x_j]_{N\times N}\left[\begin{matrix} (x_1,x_1)(x_1,x_2)\cdots(x_1,x_N)\\ (x_2,x_1)(x_2,x_2)\cdots(x_2,x_N)\\ \vdots\vdots\ddots\vdots\\ (x_N,x_1)(x_N,x_2)\cdots(x_N,x_N) \end{matrix} \right] G[xi​⋅xj​]N×N​ ​(x1​,x1​)(x2​,x1​)⋮(xN​,x1​)​(x1​,x2​)(x2​,x2​)⋮(xN​,x2​)​⋯⋯⋱⋯​(x1​,xN​)(x2​,xN​)⋮(xN​,xN​)​ ​ 4.4.3 优点 可预先计算存储 Gram 矩阵提高计算速度 可通过 Gram 矩阵引入核函数有 K ( x , z ) ϕ ( x ) ⋅ ϕ ( z ) K(x,z)\phi(x)\cdot \phi(z) K(x,z)ϕ(x)⋅ϕ(z) 可解决非线性分类问题
http://www.hkea.cn/news/14383499/

相关文章:

  • 营销网站解决方案关键词优化易下拉稳定
  • 多种语言网站建设培训网页设计机构
  • 网站前期建设建设网站的网站江苏
  • 管理部门网站建设说明书直播间人气互动平台
  • 罗湖商城网站建设找哪家公司比较安全只做百度移动端网站可以吗
  • 锦绣江南网站建设长宁区网站建设开
  • 网站开发原始数据建设网站前景怎么样
  • qq炫舞做浴缸的网站网站制作导航超链接怎么做
  • 如何做网站推广的策略如何自己制作简单脚本
  • 电子商务网站建设第一章课后鲜花网站模板
  • 五指山住房建设局网站网站不兼容怎么办啊
  • 怎让做淘宝网站wordpress编辑媒体永久链接
  • 建立个人网站能赚钱吗中国外协加工网最新订单
  • 学校网站建设与维护成都个人兼职做网站
  • 沧州最火网站如何开发微信小程序开发
  • 做网站ps分辨率给多少钱南京宣传片制作公司
  • 门户网站和官网的区别网站色彩搭配案例
  • 网站设计的公司蒙特wap音乐网站源码
  • 购物网站建设需要什么资质外国人 做的中国字网站
  • 基于wordpress门户网站爱站网关键词挖掘工具站长工具
  • 呼市做网站国家商标注册官网查询系统
  • 南宁百度网站公司电话拥有响应式网站
  • 顺德做外贸网站怎样做彩票网站
  • 做软件下载网站违法吗怎么找网站模板
  • 做简历网站有什么龙岩推广公司
  • 湖北省建设人力资源网站首页wordpress更换链接自动跳转
  • 专业网站开发设计微信公众号模板
  • 中山网站制作设计广东网站设计哪家好
  • 兰州起点网站建设如何创建自己的博客
  • 适配网站建设模版个人开公司需要多少注册资金