当前位置: 首页 > news >正文

红动中国免费素材网站网络营销策划的内容

红动中国免费素材网站,网络营销策划的内容,阳春房产网,公司注册流程步骤图无监督学习-聚类 监督学习无监督学习K-meansK-means聚类的优点#xff1a;K-means的局限性#xff1a;解决方案#xff1a; 高斯混合模型#xff08;Gaussian Mixture Models#xff0c;GMM#xff09;多维高斯分布的概率密度函数#xff1a;高斯混合模型#xff… 无监督学习-聚类 监督学习无监督学习K-meansK-means聚类的优点K-means的局限性解决方案 高斯混合模型Gaussian Mixture ModelsGMM多维高斯分布的概率密度函数高斯混合模型Gaussian Mixture ModelGMM模型形式EM算法迭代过程 K-means 与 高斯混合模型GMM的对比K-means高斯混合模型GMM 高斯混合模型GMM的优缺点优点缺点 选择应用场景 层次聚类簇之间的相似性度量最小距离最大距离平均距离中心点距离凝聚聚类过程 DBSCANDBSCAN算法步骤DBSCAN的特点参数说明优势与局限性优势局限性 例题 谨以此博客作为复习期间的记录 监督学习无监督学习 监督学习和无监督学习是机器学习中两种基本的学习范式。 监督学习 定义监督学习是一种机器学习范式在这种范式中模型通过已标记的训练数据进行训练每个训练样本都有一个标签或目标值。特点模型在学习过程中使用输入数据与其对应的已知输出标签或目标值之间的关系目的是学习从输入到输出的映射关系以便对新的未知数据做出准确的预测或分类。优点 可以利用已知的标签信息来进行精确的预测或分类。在训练过程中可以评估模型的性能并进行调整和改进。适用于大多数真实世界的问题如图像识别、语音识别、自然语言处理等。 缺点 需要大量标记好的训练数据数据标记成本高。对于某些问题标签数据可能不容易获得或标记。 无监督学习 定义无监督学习是一种机器学习方法其中模型根据未标记的数据进行学习没有对应的目标输出。特点在无监督学习中模型试图从数据中发现隐藏的模式、结构或特征而不需要预先定义的输出标签。优点 可以发现数据中的潜在结构、关联和规律有助于理解数据本身。适用于数据探索和降维等任务。不需要标签因此不受标签获取成本的影响。 缺点 对于一些任务无法直接量化或验证模型学到的信息。在训练过程中难以衡量模型的性能。 K-means K-means聚类的优点 简单快速K-means是一种直观且易于实现的聚类算法计算效率高适用于大规模数据集。可扩展性对于大规模数据K-means算法具有良好的可扩展性和高效性。对高斯分布接近的簇效果较好当簇近似服从高斯分布时K-means算法的聚类效果较好。 K-means的局限性 硬划分数据K-means对数据点进行硬划分即每个数据点只能属于一个簇当数据存在噪声或异常值时可能会导致点被错误分配到不合适的簇中。对簇形状和大小的假设K-means假设簇是球形的并且每个簇的概率相等这在某些场景下可能不符合实际情况。 解决方案 针对K-means的局限性可以采用以下解决方案 软聚类方法使用软聚类方法如高斯混合模型Gaussian Mixture ModelsGMM允许数据点以一定的概率属于不同的簇而不是强制性地将其分配到唯一的簇。采用不同形状的簇对非球形簇结构可以考虑使用其他形式的聚类算法如密度聚类DBSCAN等这些算法对数据的形状和密度分布没有特定的假设。 高斯混合模型Gaussian Mixture ModelsGMM 多维高斯分布的概率密度函数 对于一个 D D D 维的随机向量 x ( x 1 , x 2 , … , x D ) T \mathbf{x} (x_1, x_2, \dots, x_D)^T x(x1​,x2​,…,xD​)T其多维高斯分布的概率密度函数可以表示为 N ( x ∣ μ , Σ ) 1 ( 2 π ) D / 2 ∣ Σ ∣ 1 / 2 exp ⁡ ( − 1 2 ( x − μ ) T Σ − 1 ( x − μ ) ) \mathcal{N}(\mathbf{x}|\boldsymbol{\mu}, \boldsymbol{\Sigma}) \frac{1}{(2\pi)^{D/2} |\boldsymbol{\Sigma}|^{1/2}} \exp \left(-\frac{1}{2} (\mathbf{x} - \boldsymbol{\mu})^T \boldsymbol{\Sigma}^{-1} (\mathbf{x} - \boldsymbol{\mu})\right) N(x∣μ,Σ)(2π)D/2∣Σ∣1/21​exp(−21​(x−μ)TΣ−1(x−μ)) 其中 μ ( μ 1 , μ 2 , … , μ D ) T \boldsymbol{\mu} (\mu_1, \mu_2, \dots, \mu_D)^T μ(μ1​,μ2​,…,μD​)T 是均值向量表示随机向量每个维度的均值。 Σ \boldsymbol{\Sigma} Σ 是协方差矩阵表示随机向量各维度之间的协方差。 ∣ Σ ∣ |\boldsymbol{\Sigma}| ∣Σ∣ 是协方差矩阵的行列式。 T ^T T 表示向量的转置。 exp ⁡ ( ⋅ ) \exp(\cdot) exp(⋅) 是自然指数函数。 高斯混合模型Gaussian Mixture ModelGMM 模型形式 假设有 N N N 个数据点 x 1 , x 2 , … , x N \mathbf{x}_1, \mathbf{x}_2, \dots, \mathbf{x}_N x1​,x2​,…,xN​GMM 的概率密度函数可表示为 p ( x ) ∑ k 1 K π k N ( x ∣ μ k , Σ k ) p(\mathbf{x}) \sum_{k1}^{K} \pi_k \mathcal{N}(\mathbf{x}|\boldsymbol{\mu}_k, \boldsymbol{\Sigma}_k) p(x)k1∑K​πk​N(x∣μk​,Σk​) 其中 K K K 是高斯分布的数量聚类数目 π k \pi_k πk​ 是第 k k k 个高斯分布的权重满足 ∑ k 1 K π k 1 \sum_{k1}^{K} \pi_k 1 ∑k1K​πk​1 N ( x ∣ μ k , Σ k ) \mathcal{N}(\mathbf{x}|\boldsymbol{\mu}_k, \boldsymbol{\Sigma}_k) N(x∣μk​,Σk​) 是多维高斯分布密度函数 μ k \boldsymbol{\mu}_k μk​ 是第 k k k 个高斯分布的均值向量 Σ k \boldsymbol{\Sigma}_k Σk​ 是其协方差矩阵。 EM算法迭代过程 初始化随机初始化模型参数各高斯分布的均值、协方差矩阵和权重。E步骤Expectation 计算每个数据点 x n \mathbf{x}_n xn​ 属于每个高斯分布的后验概率即第 k k k 个高斯分布生成第 n n n 个数据点的概率 γ ( z n k ) π k N ( x n ∣ μ k , Σ k ) ∑ j 1 K π j N ( x n ∣ μ j , Σ j ) \gamma(z_{nk}) \frac{\pi_k \mathcal{N}(\mathbf{x}_n|\boldsymbol{\mu}_k, \boldsymbol{\Sigma}_k)}{\sum_{j1}^{K} \pi_j \mathcal{N}(\mathbf{x}_n|\boldsymbol{\mu}_j, \boldsymbol{\Sigma}_j)} γ(znk​)∑j1K​πj​N(xn​∣μj​,Σj​)πk​N(xn​∣μk​,Σk​)​ M步骤Maximization 重新估计参数 更新每个高斯分布的权重 π k \pi_k πk​ π k 1 N ∑ n 1 N γ ( z n k ) \pi_k \frac{1}{N} \sum_{n1}^{N} \gamma(z_{nk}) πk​N1​n1∑N​γ(znk​)更新每个高斯分布的均值 μ k \boldsymbol{\mu}_k μk​ μ k ∑ n 1 N γ ( z n k ) x n ∑ n 1 N γ ( z n k ) \boldsymbol{\mu}_k \frac{\sum_{n1}^{N} \gamma(z_{nk})\mathbf{x}_n}{\sum_{n1}^{N} \gamma(z_{nk})} μk​∑n1N​γ(znk​)∑n1N​γ(znk​)xn​​更新每个高斯分布的协方差矩阵 Σ k \boldsymbol{\Sigma}_k Σk​ Σ k ∑ n 1 N γ ( z n k ) ( x n − μ k ) ( x n − μ k ) T ∑ n 1 N γ ( z n k ) \boldsymbol{\Sigma}_k \frac{\sum_{n1}^{N} \gamma(z_{nk})(\mathbf{x}_n - \boldsymbol{\mu}_k)(\mathbf{x}_n - \boldsymbol{\mu}_k)^T}{\sum_{n1}^{N} \gamma(z_{nk})} Σk​∑n1N​γ(znk​)∑n1N​γ(znk​)(xn​−μk​)(xn​−μk​)T​ 重复迭代重复执行E步骤和M步骤直到模型参数收敛或达到预设的迭代次数。 在EM算法中E步骤计算数据点属于每个高斯分布的后验概率M步骤根据这些后验概率重新估计模型参数迭代更新直至收敛。这个过程旨在最大化观测数据的似然函数使得模型能够更好地拟合数据。 K-means 与 高斯混合模型GMM的对比 K-means 硬聚类算法每个数据点仅属于一个簇。假设假定簇为球形并对数据进行硬划分。速度快简单且计算效率高适用于大规模数据集。 高斯混合模型GMM 软聚类算法允许一个数据点以一定概率分配到不同的聚类中心。假设允许簇有不同形状和大小并用高斯分布建模数据分布。灵活性适用于更广泛的数据形状和分布。更复杂的模型与K-means相比GMM具有更复杂的模型和参数均值、协方差、权重。 高斯混合模型GMM的优缺点 优点 灵活性对数据分布的假设更加灵活可以拟合各种形状和大小的簇。软聚类允许数据以一定概率属于不同的聚类中心更符合实际场景。能量表达能力强GMM是一个强大的建模工具能够捕获数据中的复杂关系。 缺点 计算复杂度高相比于K-meansGMM具有更高的计算复杂度特别是在高维数据上。对初始值敏感GMM对于初始参数值敏感不同的初始值可能会导致不同的聚类结果。可能陷入局部最优解迭代优化过程可能陷入局部最优解影响模型的效果。 选择应用场景 如果数据集具有明显的簇结构、数据分布近似球形并且对计算速度要求较高K-means可能是一个不错的选择。如果数据集具有复杂的形状、大小和分布或者需要更丰富的数据建模GMM可能更适合。通常可以根据数据的特点和任务的需求来选择适合的聚类算法。 层次聚类 簇之间的相似性度量 最小距离 适合发现凸型簇或者非等向性的簇对异常值不敏感。它衡量的是两个簇中最近的两个数据点的距离所以在形成簇的过程中容易受到离群点的影响。 最大距离 适合发现球状簇能够很好地处理不同大小和密度的簇对噪声和异常值比较稳健。它考虑的是两个簇中距离最远的两个数据点之间的距离使得形成的簇间距离更大。 平均距离 对各种类型的簇都相对适用通常被视为对最小距离和最大距离的折衷方案。它计算两个簇中所有数据点之间的平均距离能够平衡最小和最大距离法的影响。 中心点距离 考虑簇之间的中心点质心之间的距离。这种方法对异常值相对较敏感因为它完全依赖于簇的中心点并且不适合非凸形状的簇。 层次聚类是一种按照层次结构组织的聚类方法其主要思想是将数据点逐步合并或分割形成一个层次化的聚类结构。层次聚类方法有两种主要的方法凝聚聚类Agglomerative Clustering和分裂聚类Divisive Clustering。这里我将介绍凝聚聚类的过程。 凝聚聚类过程 凝聚聚类是一种自底向上的聚类方法其步骤如下 初始化 将每个数据点视为一个单独的簇。 计算相似度或距离 计算所有数据点之间的相似度或距离如欧氏距离、曼哈顿距离、相关系数等。 合并最近的簇 找到相似度或距离最小的两个簇并将它们合并成一个新的簇。合并簇的方式可以根据不同的距离度量方法来确定比如单链接single-linkage、全链接complete-linkage、平均链接average-linkage等。 更新相似度矩阵 更新相似度矩阵重新计算新簇与其他簇之间的距离或相似度。 重复合并步骤 重复进行合并步骤不断合并距离最近的簇直到满足某个停止条件比如指定簇的数量、距离阈值等。 构建聚类树Dendrogram 沿着合并过程可以记录每次合并的簇以及它们的距离构建层次聚类树或者称为树状图Dendrogram。 树状图的剪枝可选 可以根据业务需求或者树状图的结构通过剪枝来选择最终的聚类结果确定簇的数量。 凝聚聚类方法将每个数据点作为一个簇然后通过不断合并最接近的簇逐步形成层次化的聚类结构。最终通过聚类树Dendrogram或剪枝得到最终的聚类结果。 DBSCAN DBSCANDensity-Based Spatial Clustering of Applications with Noise是一种基于密度的聚类算法能够识别具有不同密度的样本点并能够有效地处理噪声点。DBSCAN通过定义“邻域”和“核心点”来识别簇并能够发现任意形状的簇结构。 DBSCAN算法步骤 定义邻域 以一个指定的距离阈值 ε \varepsilon ε 作为半径对每个数据点 p \mathbf{p} p 进行邻域定义。如果在以 p \mathbf{p} p 为中心半径为 ε \varepsilon ε 的圆球内包含超过指定数量MinPts的点则 p \mathbf{p} p 被视为核心点。 寻找核心点和连接簇 根据第一步的定义寻找所有核心点并将每个核心点的邻域内的点归为同一个簇。如果点 q \mathbf{q} q 在 p \mathbf{p} p 的邻域内且 q \mathbf{q} q 也是核心点则将 q \mathbf{q} q 的簇合并到 p \mathbf{p} p 所在的簇中。 处理噪声点 将不能成为核心点也不在任何核心点的邻域内的数据点视为噪声点或边界点。 DBSCAN的特点 能处理任意形状的簇相比于K-means等硬聚类算法DBSCAN能够发现任意形状的簇对簇的形状没有特定的假设。对噪声点鲁棒DBSCAN能够识别和过滤噪声点将其视为离群点。不需要提前指定簇的数量与K-means等需要提前指定簇数量的算法不同DBSCAN不需要这个先验信息。 参数说明 ε \varepsilon ε邻域的半径大小。MinPts定义核心点时所需的最小邻域点数。 优势与局限性 优势 能够识别任意形状的簇结构。对噪声和离群点有较好的鲁棒性。不需要提前指定簇的数量。 局限性 对于密度不均匀的数据或具有差异密度的簇效果可能不理想。对于高维数据集由于“维度灾难”问题需要谨慎选择距离阈值和邻域点数。 例题 import math import numpy as np data[[5.9, 3.2], [4.6, 2.9], [6.2, 2.8], [4.7, 3.2], [5.5, 4.2], [5.0, 3.0], [4.9, 3.1], [6.7, 3.1], [5.1, 3.8], [6.0, 3.0]]center [[6.2,3.2],[6.6,3.7],[6.5,3.0]] def cal_distance(point1, point2):# 计算两点之间的欧氏距离distance math.sqrt((point1[0] - point2[0])**2 (point1[1] - point2[1])**2)return distance def get_min_index(lst):# 获取最小值min_value min(lst)# 获取最小值的下标min_index lst.index(min_value)return min_indexdata_dict {0:[],1:[],2:[]}for i in data:tmp []print(点:,i,end \t)for j in center:tmp.append(round(cal_distance(i,j),2))print(f距离类别{center.index(j)}的距离:,round(cal_distance(i,j),2),end \t)data_dict[get_min_index(tmp)].append(i)print(分配给类别:,get_min_index(tmp))for i in data_dict.keys():print(f类别{i}的中心为:{np.array(data_dict[i]).mean(axis 0)})输出: 点: [5.9, 3.2] 距离类别0的距离: 0.3 距离类别1的距离: 0.86 距离类别2的距离: 0.63 分配给类别: 0 点: [4.6, 2.9] 距离类别0的距离: 1.63 距离类别1的距离: 2.15 距离类别2的距离: 1.9 分配给类别: 0 点: [6.2, 2.8] 距离类别0的距离: 0.4 距离类别1的距离: 0.98 距离类别2的距离: 0.36 分配给类别: 2 点: [4.7, 3.2] 距离类别0的距离: 1.5 距离类别1的距离: 1.96 距离类别2的距离: 1.81 分配给类别: 0 点: [5.5, 4.2] 距离类别0的距离: 1.22 距离类别1的距离: 1.21 距离类别2的距离: 1.56 分配给类别: 1 点: [5.0, 3.0] 距离类别0的距离: 1.22 距离类别1的距离: 1.75 距离类别2的距离: 1.5 分配给类别: 0 点: [4.9, 3.1] 距离类别0的距离: 1.3 距离类别1的距离: 1.8 距离类别2的距离: 1.6 分配给类别: 0 点: [6.7, 3.1] 距离类别0的距离: 0.51 距离类别1的距离: 0.61 距离类别2的距离: 0.22 分配给类别: 2 点: [5.1, 3.8] 距离类别0的距离: 1.25 距离类别1的距离: 1.5 距离类别2的距离: 1.61 分配给类别: 0 点: [6.0, 3.0] 距离类别0的距离: 0.28 距离类别1的距离: 0.92 距离类别2的距离: 0.5 分配给类别: 0 类别0的中心为:[5.17142857 3.17142857] 类别1的中心为:[5.5 4.2] 类别2的中心为:[6.45 2.95]
http://www.hkea.cn/news/14352812/

相关文章:

  • 太平保险网站自己做网站要学什么
  • 有专业做网站c2c模式在我国开始于1999年的
  • 从那些方面建设网站做国外购物的网站怎么发货
  • 自己弄个网站中山哪里有做网站
  • 免费公司介绍网站怎么做深圳网站seo设计
  • 昆山网站建设怎么样报网站开发培训班
  • 物流网站做那个好住房与城乡建设部网站 黑龙江
  • 李贤威wordpress建站教程成都住建局官网住建扬尘监测
  • 人事怎么做招聘网站比对分析欧美网站设计特点
  • 辽宁省建设工程信息网官网新网站有哪些做农产品的网站
  • 深圳专业画册设计机构南京seo推广
  • 网站建设 软件开发的公司seo教程论坛
  • 网站建设公司如何推广wordpress模板的网站_网页字体怎么修改?
  • 听完米课做的网站网上国网app推广效果
  • 广州黄埔网站制作山东大标网络
  • 手机网站开发开发wordpress主题 ux
  • 网站上的超链接怎么做重庆电力建设公司网站
  • 企业网站建设一条龙多少钱如何个网站做二维码
  • 网站忧化技巧wordpress会员主页
  • 自然村 网站建设seo教程自学
  • 专业的网站制作公司地址免费申请个人网站申请
  • 做网站一定要用到dw做spa的网站怎么推广
  • 怎么做淘宝网站步骤单位建设的网站属于无形资产吗
  • 做淘宝那样的网站麻烦吗网页设计代码字号px
  • 网站大全网址大全wordpress 时尚 主题
  • 广州天河建网站发布软文平台
  • 电子商务网站开发前景做外贸的经常浏览的三个网站
  • 唯样商城网站主流的网站开发框架
  • 网站开发需求式样书比较好写的电子商务论文题目
  • 网站标题写什么作用是什么意思网站搜索要怎么做