当前位置: 首页 > news >正文

怎么做提货网站邯郸oa办公系统

怎么做提货网站,邯郸oa办公系统,佛山电子商务网站建设,wordpress 捐助目录 1.算法运行效果图预览 2.算法运行软件版本 3.部分核心程序 4.算法理论概述 一、支持向量机#xff08;SVM#xff09; 二、多层感知器#xff08;MLP#xff09; 5.算法完整程序工程 1.算法运行效果图预览 2.算法运行软件版本 matlab2022a 3.部分核心程序 .…目录 1.算法运行效果图预览 2.算法运行软件版本 3.部分核心程序 4.算法理论概述 一、支持向量机SVM 二、多层感知器MLP 5.算法完整程序工程 1.算法运行效果图预览 2.算法运行软件版本 matlab2022a 3.部分核心程序 ................................................................... %SVM % 以下是关于SVM模型的设置。 % 并行计算设置使用多核CPU进行计算。 svm_opt statset(UseParallel,true);tic% 开始计时计算模型训练时间。 % 使用fitcsvm函数训练SVM模型其中标准化设为真核函数、多项式阶数、盒子约束等参数进行设置。结果为最优的SVM模型svm_optimal。 svm_models fitcsvm(xTrain,yTrain, Standardize, true,...KernelFunction,polynomial,...% polynomial核函数是一个多项式核函数它对应于无穷维特征空间中的点积。 PolynomialOrder ,2,...% 2定义了多项式的阶数BoxConstraint,0.8);%0.8定义了约束条件。 % 计算并存储SVM模型训练时间。 Time_svm toc; % 对测试集进行预测和评价。 yr_svm predict(svm_models, xTest);........................................................................ %MLP % 以下是关于多层感知器MLP模型的设置。 % MLP的超参数 mlp_models.divideFcn dividerand; %将数据随机划分 mlp_models.divideMode sample; %对每个样本进行划分 mlp_models.divideParam.trainRatio 0.85;% 训练集占85% mlp_models.divideParam.valRatio 0.15;% 验证集占15% % 创建一个有35个隐藏层节点的模式识别神经网络训练函数为trainrp反向传播 mlp_models patternnet(35, trainrp); mlp_models.trainParam.lr 0.004;% 设置学习率为0.004 mlp_models.trainParam.mc 0.35;% 设置动量系数为0.35 % 设置第一层的传递函数为transigSigmoid函数 mlp_models.trainParam.epochs300;% 设置训练次数为300次 tic% 开始计时计算模型训练时间。% 使用训练数据进行训练结果存储在net中同时返回训练记录tr预测输出y和误差e。 .......................................................................... figure plot(xSVM,ySVM,r) hold on plot(xMLP,yMLP,b) legend(SVM,MLP) xlabel(FP); ylabel(TP); title(ROC曲线) grid onfigure bar([aucSVM,aucMLP]); xlabel(模型类型); ylabel(R auc); xticklabels({SVM,MLP}); ylim([0.75,1]); 67 4.算法理论概述 支持向量机SVM和多层感知器MLP是两种常用的机器学习算法它们在数据预测和分类任务中都有广泛的应用。下面将详细介绍这两种算法的原理和数学公式。 一、支持向量机SVM 支持向量机是一种二分类算法其基本思想是在特征空间中找到一个最优超平面使得该超平面能够将不同类别的数据点尽可能地分开。具体来说对于一个二分类问题假设数据集包含n个样本{(x1, y1), (x2, y2), ..., (xn, yn)}其中xi是输入特征向量yi是对应的类别标签1或-1。SVM的目标是找到一个最优超平面wxb0使得该超平面能够将不同类别的数据点尽可能地分开同时使得超平面两侧的空白区域即“间隔”最大化。 在数学上SVM的优化问题可以表示为以下形式 min 1/2 ||w||^2 C ∑ ξ_i s.t. y_i (w^T x_i b) ≥ 1 - ξ_i, i1,2,...,n ξ_i ≥ 0, i1,2,...,n 其中w是超平面的法向量b是超平面的截距C是一个惩罚参数用于控制误分类的惩罚力度ξ_i是第i个样本的松弛变量用于容忍一些不可分的样本。该优化问题的目标是最小化超平面的法向量长度即||w||^2和误分类的惩罚项即C ∑ ξ_i。 对于非线性可分的情况可以通过核函数将输入特征映射到高维空间使得在高维空间中数据变得线性可分。此时优化问题中的内积运算需要用核函数来替代。常见的核函数包括线性核、多项式核和高斯核等。 二、多层感知器MLP 多层感知器是一种前向传播的神经网络其基本结构包括输入层、隐藏层和输出层。在数据预测任务中MLP通过学习输入数据和输出数据之间的非线性映射关系来对新的输入数据进行预测。具体来说对于一个回归问题假设数据集包含n个样本{(x1, y1), (x2, y2), ..., (xn, yn)}其中xi是输入特征向量yi是对应的输出值。MLP的目标是找到一个最优的网络参数θ使得对于任意一个新的输入x都能够输出一个尽可能接近真实值y的预测值。 在数学上MLP的预测过程可以表示为以下形式 y_pred f(x; θ) 其中f(·)表示MLP的网络结构θ表示网络参数。通常MLP的网络结构包括多个隐藏层和非线性激活函数如ReLU、sigmoid或tanh等。网络参数的优化通常采用梯度下降算法及其变种如批量梯度下降、随机梯度下降和小批量梯度下降等。在训练过程中通过反向传播算法计算损失函数对网络参数的梯度并根据梯度更新网络参数以最小化预测误差。常见的损失函数包括均方误差损失、交叉熵损失等。 需要注意的是MLP的训练过程容易陷入局部最优解和过拟合等问题。为了避免这些问题可以采用一些正则化技术如L1正则化、L2正则化和dropout等。此外还可以采用一些集成学习技术如bagging和boosting等以提高模型的泛化能力和鲁棒性。 5.算法完整程序工程 OOOOO OOO O
http://www.hkea.cn/news/14305380/

相关文章:

  • 58同城新密网站建设建站平台功能结构图
  • 网站建设方案书模板下载建设厅官方网站北京
  • 网站建设运营规划方案方案设计基本步骤
  • 郑州网络建站公司企业咨询管理收费标准
  • 国外电商网站设计欣赏注册公司一般多少费用
  • php 数据录入网站公司网站建设西安
  • 高端网站设计新鸿儒微信平台如何开发
  • 如何创建网站后台新乡网站建设哪家实力强
  • 做哪一类网站能赚钱网站建设销售实训报告
  • 做网站要招什么样的程序员手机网站引导页js插件
  • 网站建设实验的建议和看法设计师 英文网站
  • 汽车网站哪个好长春火车站是南站还是北站
  • 内蒙古企业网站制作云南建设厅网站设计
  • php 网站开发平台宁波怎样优化关键词
  • 太平阳电脑网网站模板网站云空间大小
  • 做时间轴的在线网站《网站基础建设-首保》
  • 网站流量指数中国手机网
  • 史丹利网站开发团队哪个网站做的系统好
  • 网站建设接口开发企业管理系统数据库
  • 霸州网站设计菏泽网站建设公司
  • 建设通网站有建筑公司名录大全大连建站
  • 网站网络营销怎么做企业网站平台
  • 做网站分辨率设置多少网络科技公司起名字大全免费
  • 网站界面设计的步骤南京最好的网页制作公司
  • 怎么做淘宝网站赚钱雅布设计中国分公司在哪里
  • 微信公众好第三方网站怎么做重庆移动网站建设
  • 做个小程序电子商务seo是什么意思
  • 东营网站建设服务电话安阳网络教研平台官网
  • 做网站一定要买服务器么华为手机价格大全
  • 做外贸怎样打开国外网站中美今天最新消息