当前位置: 首页 > news >正文

网站开发主管岗位职责说明书wordpress 转小程序

网站开发主管岗位职责说明书,wordpress 转小程序,鱼台建设局网站,在哪个网站上找超市做生鲜一、引言 支持向量机(Support Vector Machine, SVM)作为一种经典的监督学习方法#xff0c;在分类和回归问题中表现出色。其优点之一是生成的模型具有较好的泛化能力和可解释性#xff0c;能够清晰地展示特征对于分类的重要性。 fastshap是一种用于快速计算SHAP值#xff08… 一、引言 支持向量机(Support Vector Machine, SVM)作为一种经典的监督学习方法在分类和回归问题中表现出色。其优点之一是生成的模型具有较好的泛化能力和可解释性能够清晰地展示特征对于分类的重要性。 fastshap是一种用于快速计算SHAP值SHapley Additive exPlanations的工具通过近似SHAP值的计算加速了模型的解释过程使得模型的解释更为高效和可视化。 综上所述本文将探讨支持向量机和fastshap在可解释性机器学习中的作用。通过结合支持向量机和fastshap我们可以深入分析模型的决策过程解释模型的预测结果从而提高模型的可解释性和可信度。 二、SVM简介 2.1 SVM的原理和优点 支持向量机Support Vector Machine, SVM的原理是通过寻找最大间隔超平面来进行分类或回归。在二分类情况下SVM的目标是找到一个能够将不同类别的数据点分开的超平面并且使得该超平面到最近的数据点支持向量的距离最大化。这种最大化间隔的方法使得SVM具有较强的泛化能力。 对于线性不可分的情况SVM可以通过核函数将数据映射到高维空间从而在高维空间中找到一个线性可分的超平面从而解决非线性分类问题。 「泛化能力强」SVM通过最大化间隔的方式进行分类因此对未知数据的泛化能力较强有较好的预测性能。 「高维空间的处理能力」SVM可以通过核函数将数据映射到高维空间从而处理线性不可分的问题。 「对特征的依赖较小」SVM在模型训练过程中主要依赖支持向量对于非支持向量的数据点不敏感可以避免维度灾难和过拟合问题。 「有效处理小样本数据」SVM在小样本数据情况下表现出色可以有效地进行分类和回归。 总的来说SVM具有较强的泛化能力、高维空间处理能力以及对特征的不敏感性等优点使其成为机器学习中广泛应用的方法之一。 2.2 SVM在机器学习中的应用场景 文本分类SVM可以用于对文本进行分类如垃圾邮件识别、情感分析等。 识别SVM可以应用于图像分类和目标检测等领域例如人脸识别、车牌识别等。 生物信息学SVM在基因分类、蛋白质分类等生物信息学领域有着重要应用。 综上所述支持向量机作为一种强大的监督学习方法在文本分类、图像识别、生物信息学等领域展现出了良好的应用前景同时其高维空间处理能力和泛化能力也使其成为解决复杂问题的重要工具。 三、fastshap方法封装 FastSHAP 是一个用于加速 SHAPSHapley Additive exPlanations计算的工具旨在提高模型可解释性的效率和准确性。 library(magrittr)library(tidyverse)library(fastshap)plot_shap - function(model,newdata){    shap - explain(rf,Xnewdata,nsim10,        pred_wrapper  function(model,newdata){           predict(rf, newdata  newdata, type  class)        })    shap_handle - shap %% as.data.frame() %% mutate(id1:n()) %% pivot_longer(cols  -(ncol(train_data[,-10])1),values_toshap) # 长宽数据转换    data2 - newdata %% mutate(id1:n()) %% pivot_longer(cols  -(ncol(newdata)1))    shap_scale - shap_handle %%        left_join(data2)%%        rename(feature        name)%%        group_by(feature)%%        mutate(value(value-min(value))/(max(value)-min(value))) %% sample_n(200)            p - ggplot(datashap_scale, aes(xshap, yfeature, colorvalue))       geom_jitter(size2, height0.1, width0)       scale_color_gradient(low#FFCC33, high#6600CC, breaksc(0, 1), labelsc(Low, High),                            guideguide_colorbar(barwidth2, barheight30),                            nameFeature value,                            aesthetics  c(color))  theme_bw()          return(p)} 四、实例展示 「数据集准备」 library(survival)head(gbsg) 结果展示    pid age meno size grade nodes pgr er hormon rfstime status1  132  49    0   18     2     2   0  0      0    1838      02 1575  55    1   20     3    16   0  0      0     403      13 1140  56    1   40     3     3   0  0      0    1603      04  769  45    0   25     3     1   0  4      0     177      05  130  65    1   30     2     5   0 36      1    1855      06 1642  48    0   52     2    11   0  0      0     842      1 「示例数据集介绍」  str(gbsg)data.frame:   686 obs. of  10 variables: $ age    : int  49 55 56 45 65 48 48 37 67 45 ... $ meno   : int  0 1 1 0 1 0 0 0 1 0 ... $ size   : int  18 20 40 25 30 52 21 20 20 30 ... $ grade  : int  2 3 3 3 2 2 3 2 2 2 ... $ nodes  : int  2 16 3 1 5 11 8 9 1 1 ... $ pgr    : int  0 0 0 0 0 0 0 0 0 0 ... $ er     : int  0 0 0 4 36 0 0 0 0 0 ... $ hormon : int  0 0 0 0 1 0 0 1 1 0 ... $ rfstime: int  1838 403 1603 177 1855 842 293 42 564 1093 ... $ status : Factor w/ 2 levels 0,1: 1 2 1 1 1 2 2 1 2 2 ...age患者年龄meno更年期状态0表示未更年期1表示已更年期size肿瘤大小grade肿瘤分级nodes受累淋巴结数量pgr孕激素受体表达水平er雌激素受体表达水平hormon激素治疗0表示否1表示是rfstime复发或死亡时间以天为单位status事件状态0表示被截尾1表示事件发生 「划分训练集和测试集」 # 划分训练集和测试集set.seed(123)data - gbsg[,c(-1)]# 划分训练集和测试集set.seed(123)train_indices - sample(x  1:nrow(data), size  0.7 * nrow(data), replace  FALSE)test_indices - sample(setdiff(1:nrow(data), train_indices), size  0.3 * nrow(data), replace  FALSE)train_data - data[train_indices, ]test_data - data[test_indices, ]train_data_feature - train_data[,-10]train_data_label - as.numeric(as.character(train_data$status)) 「模型拟合」 library(e1071)library(pROC)model - svm(train_data_feature, train_data_label) pred_prob - predict(model, newdata train_data_feature,typeraw,threshold  0.001)# 计算ROC曲线的参数roc - roc(train_data_label, pred_prob)plot(roc, col  blue, main  ROC Curve, xlab  False Positive Rate, ylab  True Positive Rate, print.auc  TRUE, legacy.axes  TRUE)# 绘制shap图plot_shap(model,train_data_feature) 五、总结 总结支持向量机Support Vector Machine, SVM与FastSHAP在可解释性机器学习中的作用 「支持向量机SVM」 SVM是一种常用的机器学习算法主要用于分类和回归任务。 在可解释性方面SVM的决策边界可以清晰地将不同类别的数据分开使得模型的预测过程相对容易理解。 可以通过观察支持向量等方式来解释SVM模型的预测结果帮助用户理解模型的决策依据。 「FastSHAP」 FastSHAP是一种加速版的SHAPSHapley Additive exPlanations计算方法用于解释复杂模型的预测过程。 通过FastSHAP可以有效地计算特征的SHAP值帮助用户理解模型对于不同特征的依赖程度。 FastSHAP在提高SHAP值计算效率的同时也能保持解释性的优势使得解释性机器学习更加实用。 *「未经许可不得以任何方式复制或抄袭本篇文章之部分或全部内容。版权所有侵权必究。」
http://www.hkea.cn/news/14593387/

相关文章:

  • wordpress后门插件郑州seo外包顾问热狗
  • 建设银行官网招聘网站如何做双版网站
  • 营销型企业网站建设应遵守的原则楚雄网站建设
  • 电商网站的成本上海公司注册查名官网
  • 网站开发与应用课程讨论wordpress升级php
  • 微网站生成app自己做的网站网站搜索
  • 网站建设对企业重要性品牌网站分析
  • 工商局注册公司网站静态网站被同行使用
  • 展示型网站建设服务用.net做网站好_还是用php
  • 上海网站制作策wordpress首页刷新不变
  • 宁波网站建设icp备外贸网站演示
  • 写网站方案深圳网站 商城制作
  • 如何建设网站接收数据跨境外贸平台有哪些
  • 免费主机空间网站网络建设公司不只是
  • 有什么做衣服的网站七台河新闻直播
  • 网站建设中图片是什么上海网络推广产品
  • 七星彩网投网站建设河北邢台房价
  • 免费开源网站系统邯郸哪里做网站
  • 广告公司网站建设的定位学校网站开发与实现的解决思路
  • 如何在服务器上发布网站关于网站建设的电话销售话术
  • ppt做视频模板下载网站wordpress链接微博
  • seo网站优化工具大全基础网站建设代码
  • 学手机网站建设html5商城网站开发
  • 维护网站费用怎么做会计凭证公司推广做哪个网站吗
  • 怎么建设免费网站域名哪里有竞价推广托管
  • 上海千途网站建设移动应用开发专业学什么
  • 企业网站推广渠道营销公关
  • 网站开发项目架构柳州公司网站制作公司
  • 杭州论坛网站建设海淀周边网站建设
  • 免费软文网站中企动力公司待遇怎么样