当前位置: 首页 > news >正文

网站大屏轮播图效果怎么做的淘宝网站打算找人做

网站大屏轮播图效果怎么做的,淘宝网站打算找人做,陵水网站建设报价,2023太原封控最新消息查询目录 1.为什么要机器学习 2. 神经网络一般组成 3.BP神经网络工作过程 4.评价指标 5.实操代码 1.为什么要用机器学习 人工分析大量的谐振模式#xff0c;建立各种WGM的响应与未知目标之间的关系#xff0c;是一个很大的挑战。机器学习(ML)能够自行识别全谱的全部特征。作为…目录 1.为什么要机器学习 2. 神经网络一般组成 3.BP神经网络工作过程 4.评价指标 5.实操代码 1.为什么要用机器学习 人工分析大量的谐振模式建立各种WGM的响应与未知目标之间的关系是一个很大的挑战。机器学习(ML)能够自行识别全谱的全部特征。作为一种数据驱动的分析技术它可以自动从大型数据集中搜索有效信息揭示数据背后的机制从而建立数据之间的映射关系输入数据与未知目标参数。我的理解是采集的是乙醇的光谱数据人眼识别或者记录比较困难故而借助机器学习。 2. 神经网络一般组成 1输入层输入层是神经网络的起始部分它的作用是接收外部输入的数据。输入层的设计直接影响到神经网络的性能因为它决定了网络能够接收和处理的信息类型和结构。 2隐藏层隐藏层在神经网络中的作用尤为重要它们负责特征的转换和提取。通过应用非线性变换隐藏层能够提升模型对复杂数据的表达能力。 3输出层输出层是模型的最后一层它的任务是生成模型的最终预测结果。这一层的神经元数量与所解决的问题类型密切相关。在回归问题中通常只需要一个输出神经元来预测连续的数值而在分类问题中输出神经元的数量则与目标类别的数量一致。 4权重和偏置这些是网络中的参数可以在训练过程中进行学习。权重决定了输入特征如何影响隐藏层和输出层而偏置则用于调整神经元的激活水平。 5激活函数激活函数是神经网络中的关键组件它负责为网络引入非线性。在神经网络中每个神经元在接收到输入信号后会通过一个激活函数来决定是否以及如何激活。 6损失函数损失函数Loss Function是神经网络训练过程中用于衡量模型预测值与实际值之间差异的函数。它为网络提供了一个优化的目标即最小化损失函数的值。损失函数的选择取决于具体的任务和模型的需求。 7优化器优化器在神经网络训练中起着至关重要的作用它的主要工作是调整网络的权重和偏置目的是减少损失函数的值。 3.BP神经网络工作过程 1初始化首先需要初始化网络中的权重和偏置。 2输入数据将输入数据送入网络进而传递到第一层的神经元即输入层。 3前向传播数据在网络中逐层向前传递每一层的神经元接收来自前一层的输出通过激活函数处理生成当前层输出。激活函数常使用Sigmoid、Tanh或ReLU等。 4计算误差在网络的最后一层即输出层计算预测结果与实际目标值之间的误差。误差通常使用均方误差Mean Squared Error, MSE或其他损失函数来衡量。 5反向传播利用计算出的误差通过反向传播算法调整网络中的权重和偏置。这个过程涉及到梯度的计算即损失函数对权重的偏导数。 6权重更新根据反向传播得到的梯度信息使用梯度下降或其变体如动量法、AdaGrad等来更新权重和偏置。 7迭代训练重复步骤3至6直到满足停止条件如达到预定的迭代次数或误差降低到可接受的水平。 8评估和应用训练完成后使用测试数据集评估网络的性能然后可以将训练好的神经网络应用于实际问题。 4.评价指标 5.实操代码 %% BP神经网络回归预测 %% 1.初始化 clear all close all clc format short %2位小数format short精确4位format long精确15位%% 2.读取数据 dataxlsread(D:\Matlab\machine learning\machine learning.xlsx); %使用xlsread函数读取EXCEL中对应范围的数据即可; xlsread函数报错时可用Load函数替代 % 设置神经网络的输入和输出 Tdata(:,1); %步长 Xdata(:,2); %第1列至倒数第2列为输入 Ydata(:,3); %最后1列为输出 Nlength(Y); %计算样本数量 inputX; outputY;%% 3.设置训练集和测试集 %1随机选取测试样本code5 krand(1,N); [m,n]sort(k); testNum9; %设定测试集样本数量——修改 trainNumN-testNum; %设定训练集样本数量 input_train input(n(1:trainNum),:); % 训练集输入 output_train output(n(1:trainNum)); % 训练集输出 input_test input(n(trainNum1:trainNumtestNum),:); % 测试集输入 output_test output(n(trainNum1:trainNumtestNum)); % 测试集输出%% 4.数据归一化 [inputn,inputps]mapminmax(input_train,0,1); % 训练集输入归一化到[0,1]之间 %[outputn,outputps]mapminmax(output_train,0,1); [outputn,outputps]mapminmax(output_train); % 训练集输出归一化到默认区间[-1, 1] inputn_testmapminmax(apply,input_test,inputps); % 测试集输入采用和训练集输入相同的归一化方式%% 5.求解最佳隐含层 inputnumsize(input,2); %size用来求取矩阵的行数和列数1代表行数2代表列数 outputnumsize(output,2); disp([输入层节点数,num2str(inputnum),, 输出层节点数,num2str(outputnum)]) disp([隐含层节点数范围为 ,num2str(fix(sqrt(inputnumoutputnum))1), 至 ,num2str(fix(sqrt(inputnumoutputnum))10)]) disp( ) disp(最佳隐含层节点的确定...)%根据hiddennumsqrt(mn)am为输入层节点数n为输出层节点数a取值[1,10]之间的整数 MSE1e5; %误差初始化 transform_func{tansig,purelin}; %激活函数采用tan-sigmoid和purelin train_functrainlm; %训练算法 for hiddennumfix(sqrt(inputnumoutputnum))1:fix(sqrt(inputnumoutputnum))10netnewff(inputn,outputn,hiddennum,transform_func,train_func); %构建BP网络% 设置网络参数net.trainParam.epochs1000; % 设置训练次数net.trainParam.lr0.01; % 设置学习速率net.trainParam.goal0.000001; % 设置训练目标最小误差% 进行网络训练nettrain(net,inputn,outputn);an0sim(net,inputn); %仿真结果mse0mse(outputn,an0); %仿真的均方误差disp([当隐含层节点数为,num2str(hiddennum),时训练集均方误差为,num2str(mse0)])%不断更新最佳隐含层节点if mse0MSEMSEmse0;hiddennum_besthiddennum;end end disp([最佳隐含层节点数为,num2str(hiddennum_best),均方误差为,num2str(MSE)])%% 6.构建最佳隐含层的BP神经网络 netnewff(inputn,outputn,hiddennum_best,transform_func,train_func);% 网络参数 net.trainParam.epochs1000; % 训练次数 net.trainParam.lr0.01; % 学习速率 net.trainParam.goal0.000001; % 训练目标最小误差%% 7.网络训练 nettrain(net,inputn,outputn); % train函数用于训练神经网络调用蓝色仿真界面%% 8.网络测试 ansim(net,inputn_test); % 训练完成的模型进行仿真测试 test_simumapminmax(reverse,an,outputps); % 测试结果反归一化 errortest_simu-output_test; % 测试值和真实值的误差% 权值阈值 W1 net.iw{1, 1}; %输入层到中间层的权值 B1 net.b{1}; %中间各层神经元阈值 W2 net.lw{2,1}; %中间层到输出层的权值 B2 net.b{2}; %输出层各神经元阈值%% 9.结果输出 % BP预测值和实际值的对比图 figure plot(output_test,bo-,linewidth,1.5) hold on plot(test_simu,rs-,linewidth,1.5) legend(实际值,预测值) xlabel(测试样本),ylabel(指标值) title(BP预测值和实际值的对比) set(gca,fontsize,12)% BP测试集的预测误差图 figure plot(error,bo-,linewidth,1.5) xlabel(测试样本),ylabel(预测误差) title(BP神经网络测试集的预测误差) set(gca,fontsize,12)%计算各项误差参数 [~,len]size(output_test); % len获取测试样本个数数值等于testNum用于求各指标平均值 SSE1sum(error.^2); % 误差平方和 MAE1sum(abs(error))/len; % 平均绝对误差 MSE1error*error/len; % 均方误差 RMSE1MSE1^(1/2); % 均方根误差 MAPE1mean(abs(error./output_test)); % 平均百分比误差 rcorrcoef(output_test,test_simu); % corrcoef计算相关系数矩阵包括自相关和互相关系数 R1r(1,2); % 显示各指标结果 disp( ) disp(各项误差指标结果) disp([误差平方和SSE,num2str(SSE1)]) disp([平均绝对误差MAE,num2str(MAE1)]) disp([均方误差MSE,num2str(MSE1)]) disp([均方根误差RMSE,num2str(RMSE1)]) disp([平均百分比误差MAPE,num2str(MAPE1*100),%]) disp([预测准确率为,num2str(100-MAPE1*100),%]) disp([相关系数R ,num2str(R1)])%%读取待预测数据 kesxlsread(D:\Matlab\machine learning\self.xlsx);%%数据转置 keskes;%%数据归一化 n_test mapminmax(apply,kes,inputps,0,1);%%仿真测试 t_sim sim(net,n_test);%%数据反归一化 T_sim mapminmax(reverse,t_sim,outputps,0,1);%%保存结果 xlswrite(self_product,T_sim)
http://www.hkea.cn/news/14324299/

相关文章:

  • 网站开发用什么软件工作室 网站经营性备案
  • 摄影网站首页设计网店seo是什么意思
  • 医疗网站有哪些做网站的空间
  • 手机网站和app有什么区别望野拼音
  • 天津网站建设业务衡水网站设计公司哪家专业
  • 网站站群网站建设 本溪红海传媒
  • 中亿丰建设集团股份有限公司网站企业招标信息发布平台
  • 环保厅网站建设的必要性寿光网站建设价格
  • 音乐网站开发案例电脑上怎么删除wordpress
  • 做网站图片视频加载慢南宁企业网页设计
  • 北京一度网站建设福州市建设工程工料机信息网站
  • 建设外贸公司网站steam交易链接在哪看
  • 黄龙云 加强网站建设网站建设包含图文设计
  • 怎么在百度上搜到自己的网站做英语题目的网站
  • 商标注册 网站建设如何入账徐州自助建站模板
  • 有没有电商设计的网站参考汉中市网站建设公司
  • 石家庄网络营销公司网站的seo优化怎么做
  • 仿腾讯游戏网站源码wordpress多站点统计
  • 淘宝客单页网站怎么做注册公司的流程及手续
  • 广州网站搭建最美珠海app下载
  • 上海优质建筑设计网公司企业网站seo实
  • 定制旅游网站开发域名注册的网站
  • 潍坊学网站建设该企业为暂停开票企业解决方案
  • 怎样创建购物网站浙江建设厅特种作业证查询
  • 网站线框图怎么做手机网站 后台
  • 机械加工网站哪个好商城开源
  • 建设集团网站的作用宁波专业网站建设
  • 晋江企业网站制作徐州模板建站平台
  • 事业单位网站建设费入什么科目百度热搜榜在哪里看
  • 关键词整站排名优化响应式WordPress企业主题