当前位置: 首页 > news >正文

凌河建设网站如何查询百度收录情况

凌河建设网站,如何查询百度收录情况,官网网站建设公司,网站群建设的优点系列文章目录 机器学习#xff08;一#xff09; -- 概述 机器学习#xff08;二#xff09; -- 数据预处理#xff08;1-3#xff09; 机器学习#xff08;三#xff09; -- 特征工程#xff08;1-2#xff09; 机器学习#xff08;四#xff09; -- 模型评估…系列文章目录 机器学习一 -- 概述 机器学习二 -- 数据预处理1-3 机器学习三 -- 特征工程1-2 机器学习四 -- 模型评估1-4 未完待续…… 目录 系列文章目录 前言 三、分类模型评估指标 1、错误率与精度 2、查准率精确率、查全率召回率与F1值F1_score 2.1、混淆矩阵confusion matrix 2.2、查准率precision精确率 2.3、查全率recall召回率 2.4、P-R图 2.5、F1值F1_score 2.6、其他 3、ROC与AUC 4、分类报告 机器学习四 -- 模型评估1 前言 tips这里只是总结不是教程哈。 “***”开头的是给好奇心重的宝宝看的其实不太重要可以跳过。 此处以下所有内容均为暂定因为我还没找到一个好的让小白我自己也能容易理解更系统、嗯应该是宏观的讲解顺序与方式。 第一文主要简述了一下机器学习大致有哪些东西当然远远不止这些对大体框架有了一定了解。接着我们根据机器学习的流程一步步来学习吧掐掉其他不太用得上我们的步骤精练起来就4步数据预处理特征工程训练模型模型评估其中训练模型则是我们的重头戏基本上所有算法也都是这一步so这个最后写先把其他三个讲了然后在结合这三步来进行算法的学习兴许会好点个人拙见。 衡量模型泛化能力的评价标准就是性能度量模型评估指标、模型评价标准而针对不同的任务有不同的评价指标。按照数据集的目标值不同可以把模型评估分为分类模型评估、回归模型评估和聚类模型评估。 三、分类模型评估指标 错误率与精度准确率、混淆矩阵、查准率精确率、查全率召回率与F1值F1_score、PR曲线、ROC与AUC 1、错误率与精度 概述里面就说过了这是分类任务中最常用的两种性能度量。 错误率error rate分类错误的样本数/样本总数 ​ 公式还是要知道的Ⅱ(*)是指示函数在*为真假时取值为10 精度accuracy1-错误率分类正确的样本数/样本总数 ​ from sklearn.datasets import load_iris from sklearn.tree import DecisionTreeClassifier from sklearn.model_selection import train_test_split# 引入数据集 iris load_iris()# 划分数据集以及模型训练 x_train, x_test, y_train, y_test train_test_split(iris.data, iris.target, test_size0.3, random_state134)# 模型训练 model DecisionTreeClassifier() model.fit(x_train, y_train) ​ 模型训练那一部分可以先不用管我们现在主要是了解性能度量。 from sklearn.metrics import accuracy_score # 精度 accuracy_score(y_test, model.predict(x_test)) ​ 为了更形象一点我们直接使用自制数据。 ​ 2、查准率精确率、查全率召回率与F1值F1_score 2.1、混淆矩阵confusion matrix 混淆矩阵是衡量分类型模型准确度中最基本最直观计算最简单的方法。如下是一个二分类问题结果的混淆矩阵。 真实情况预测结果P正例N反例正例TP真正例FN假反例反例FP假正例TN真反例 预测结果是我们看到的也就是经过模型计算出来的结果TPFPTNFN样例总数。 API from sklearn.metrics import confusion_matrix 还是用刚才的自制数据来看哈就很明了了。 ​ 三分类问题在用混淆矩阵时得到的是一个 3 X 3 的矩阵。此时预测结果和真实情况不再以正例、反例命名而是数据集真实的分类结果。用鸢尾花结果来看。 ​ 2.2、查准率precision精确率 分类正确的正样本个数占预测结果为正的样本个数的比例。 API from sklearn.metrics import precision_score ​ 2.3、查全率recall召回率 分类正确的正样本个数占真实值为正的样本个数的比例。 API from sklearn.metrics import recall_score ​ 注意precision_score 和 recall_score 方法默认用来计算二分类问题若要计算多分类问题则需要设置 average 参数。 average评价值的平均值的计算方式。         可以接收[None, binary (default), micro, macro, weighted]         micro, macro微和宏下面会说到。          weighted : 相当于类间带权重。各类别的P × 该类别的样本数量实际值而非预测值/ 样本总数量 查准率和查全率是一对矛盾的度量。一般来说查准率高时查全率往往偏低而查全率高时查准率往往偏低。 2.4、P-R图 P-R 曲线只能用于二分类问题以查准率为纵轴、查全率为横轴作图就得到查准率-查全率曲线简称“P-R 曲线”显示该曲线的图称为“P-R”图。 ​ 若一个学习器的 P-R 曲线被另一个学习器的 P-R 曲线完全“包住”则可断言后者的性能优于前者。 若两个学习器的 P-R 曲线发生了交叉例如学习器 A 与 B则难以一般性地断言两者孰优孰劣只能在具体的查准率或查全率条件下进行比较。 平衡点Break-Even Point简称 BEP查准率查全率时的取值。综合考虑查准率、查全率的性能度量基于该方法则可断言学习器 A 优于学习器 B。 2.5、F1值F1_score F1值是基于查准率与查全率的调和平均harmonic mean定义的 ​ n为样例总数。 在一些应用中对查准率和查全率的重视程度有所不同会相应地添加权重。 Fβ则是加权调和平均定义 ​ 其中β0 度量了查全率对查准率的相对重要性。         β1时退化为标准的 F1         β1 时查全率有更大影响         β1 时查准率有更大影响。 API from sklearn.metrics import f1_score from sklearn.metrics import fbeta_score from sklearn.metrics import f1_scoref1_score(y_true,y_predict)from sklearn.metrics import fbeta_scoreprint(fbeta_score(y_test, model.predict(x_test), beta1, averageweighted))# 查全率有更大影响 print(fbeta_score(y_test, model.predict(x_test), beta2, averageweighted))# 查准率有更大影响 print(fbeta_score(y_test, model.predict(x_test), beta0.5, averageweighted)) ​ ​ 2.6、其他 很多时候我们有多个二分类混淆矩阵需要进行多次训练/测试每次得到一个混淆矩阵或是在多个数据集上进行训练/测试希望估计算法的“全局”性能甚或是执行多分类任务每两两类别的组合都对应一个混淆矩阵。总之希望在 n 个二分类混淆矩阵上综合考察查准率和查全率。 所以就有了 宏查准率macro-P、宏查全率macro-R和宏F1macro-F1 微查准率micro-P、微查全率micro-R和微F1micro-F1 宏先计算再平均 ​ 微先平均再计算  ​ print(f1_score(y_test, model.predict(x_test), averagemacro))print(f1_score(y_test, model.predict(x_test), averagemicro)) ​ 3、ROC与AUC 很多学习器为测试样本产生一个实值或概率预测然后将这个预测值与一个“分类阈值”进行比较大于阈值则分为正类否则为负类。 分类阈值也就是截断点cut point。分类过程就相当于在排序中以某个“截断点”将样本分为两部分前一部分判作正例后一部分则判作反例。 在不同的应用任务中可根据任务需求来采用不同的截断点。         查准率选择排序中靠前的位置进行截断。         查全率选择排序中靠后的位置进行截断。 ROC 全称是“受试者工作特征”Receiver Operating Characteristic曲线。根据学习器的预测结果对样例进行排序按此顺序逐个把样本作为正例进行预测以“真正例率True Positive Rate简称 TPR”为纵轴以“假正例率False Positive Rate简称 FPR”为横轴作图就得到了“ROC曲线”。 ​ API: from sklearn.metrics import roc_curve from sklearn.metrics import roc_curve import matplotlib.pyplot as pltplt.rcParams[font.sans-serif] SimHei # 设置字体为SimHei # 显示中文 plt.rcParams[axes.unicode_minus]False # 修复负号问题fpr,tpr,thresholdsroc_curve(y_true,y_predict)plt.plot(fpr, tpr) plt.axis(square) plt.xlabel(假正例率/False positive rate) plt.ylabel(正正例率/True positive rate) plt.title(ROC curve) plt.show() ​ AUCArea Under ROC Curve ROC 曲线下的面积大小。该值能够量化地反映基于 ROC 曲线衡量出的模型性能。 注意roc_curve() 同 precision_recall_curve()都只能用于二分类问题但 roc_auc_score() 方法支持计算多分类问题的 auc 面积。 4、分类报告 scikit-learn 中提供了一个非常方便的工具可以给出对分类问题的评估报告Classification_report() 方法能够给出精确率precision、召回率recall、F1 值F1-score和样本数目support。 API from sklearn.metrics import classification_report from sklearn.metrics import classification_report# 自制数据 print(classification_report(y_true,y_predict))# 鸢尾花数据 print(classification_report(y_test, model.predict(x_test)))
http://www.hkea.cn/news/14271228/

相关文章:

  • 做公众号需要网站什么网站做简历最好
  • 淘宝客做网站多少钱网站域名要怎样规划
  • 做网站如何可以实现窗口切换功能襄阳网站建设营销
  • 网站建设好了怎么发布手机什么网站可以设计楼房
  • 河南天元建设公司网站行业网站特点
  • 淘宝客网站建设财经门户网站开发
  • 北京网站建设石榴汇wordpress弹窗打开网页
  • 洛阳做家教去什么网站建网站可以赚钱吗
  • 响应式网站开发费用蔷薇花园网站怎么做的
  • 保定网站制作推广公司网站开发项目建设规范
  • 建设公司网站的目的网站建设丷金手指专业十五
  • 网站建设二公司美团网站制作的特色
  • 代理网站地址wordpress翻译公司
  • 怎么免费注册网站南宁网络技术
  • 网站开发流行语言办公室装修风格效果图
  • 优质视频素材网站图片网站怎么做排名
  • 机械网站开发腾讯云域名购买流程
  • 简述网站建设过程一级a做爰网站
  • 江苏扬州建设局网站手机网站是怎么做的
  • 自助建站网站seo公司网站开发需要什么技术
  • 起名字最好的网站做搜狗网站关键词排名
  • 织梦网站登录大庆工程建设公司网站
  • 网站设计公司哪家便宜网站建设微金手指下拉12
  • 如何查看网站是否被降权商贸有限公司英文
  • 网站建设资金方案郑州服装 网站建设
  • 常德做网站报价如何给一个公司做网站
  • asp网站开发工程师网络设计的基本原则有哪些
  • 网站建设盐城最便宜张雪峰谈工业设计专业
  • php高级网站开发电影网站制作教程
  • 加盟平台响应网站建设营销型网站建设网络推广