当前位置: 首页 > news >正文

电脑怎么下载网页视频seo站长之家

电脑怎么下载网页视频,seo站长之家,网站搜索引擎提交入口,拖拉建网站Softmax 回归 基本原理 回归和分类#xff0c;是两种深度学习常用方法。回归是对连续的预测#xff08;比如我预测根据过去开奖列表下次双色球号#xff09;#xff0c;分类是预测离散的类别#xff08;手写语音识别#xff0c;图片识别#xff09;。 现在我们已经对回…Softmax 回归 基本原理 回归和分类是两种深度学习常用方法。回归是对连续的预测比如我预测根据过去开奖列表下次双色球号分类是预测离散的类别手写语音识别图片识别。 现在我们已经对回归的处理有一定的理解了如何过渡到分类呢 假设我们有 n 类首先我们要编码这些类让他们变成数据。所有类变成一个列向量。 y [ y 1 , y 2 , . . . y n ] T y[y_1,y_2,...y_n]^T y[y1​,y2​,...yn​]T 有一个数据属于第 i 类那么他的列向量就是 y [ 0 , 0 , . . . , 1 , . . . , 0 , 0 ] T y[0,0,...,1,...,0,0]^T y[0,0,...,1,...,0,0]T 也就是只有他所在的那个类的元素1. 可以用均方损失训练通过概率判断最终选用哪一个。 Softmax 回归就是一种分类方式回归问题在多分类上的推广。首先确定输入特征数和输出类别数。比如上图中我们有4个特征和3个可能的类别那么计算各自概率的公式包括3个线性回归 可以看出 Softmax 是全连接的单层神经网络。 我们让所有输出结果归一化后从中选择出最大可能的置信度最高的分类结果。 采用 e 的指数可以让值全变为非负。 用真实的概率向量-我们预测得到的概率向量就是损失。真实值就是只有一个1的列向量。 交叉熵损失 可见**分类问题我们不关心对非正确的预测值只关心正确预测值是否足够大。**因为正确值是只有一个元素为1的列向量。 常用的损失函数 L2 Loss均方损失。 L1 Loss绝对值损失。 L2 梯度是一条倾斜直线对于梯度下降算法等更为合适L1 是一个跳变梯度要么 -1 要么 1. 如图是 L1 L2 的梯度。 我们可以结合两者得到一个新的损失函数鲁棒损失 Huber Robust KaTeX parse error: {equation} can be used only in display mode. 图像分类数据集 MINIST 是一个常用图像分类数据集但是过于简单。后来的 upgrade 版叫 Fashion-MINIST服装分类. 首先我们研究研究怎么加载训练数据集以便后面测试算法用。 # 导包 %matplotlib inline import torch import torchvision from torch.utils import data from torchvision import transforms from d2l import torch as d2ld2l.use_svg_display()d2l.use_svg_display()# 下载数据集并读取到内存 trans transforms.ToTensor() mnist_train torchvision.datasets.FashionMNIST(root../data, trainTrue, transformtrans, downloadTrue) # 训练数据集 mnist_test torchvision.datasets.FashionMNIST(root../data, trainFalse, transformtrans, downloadTrue) # 测试数据集用于评估性能# 定义函数用于返回对应索引的标签 def get_fashion_mnist_labels(labels): #save返回Fashion-MNIST数据集的文本标签text_labels [t-shirt, trouser, pullover, dress, coat,sandal, shirt, sneaker, bag, ankle boot]return [text_labels[int(i)] for i in labels]# 图像可视化让结果看着更直观比如下面那个绿色图的样子 def show_images(imgs, num_rows, num_cols, titlesNone, scale1.5): #save绘制图像列表figsize (num_cols * scale, num_rows * scale)_, axes d2l.plt.subplots(num_rows, num_cols, figsizefigsize)axes axes.flatten()for i, (ax, img) in enumerate(zip(axes, imgs)):if torch.is_tensor(img):# 图片张量ax.imshow(img.numpy())else:# PIL图片ax.imshow(img)ax.axes.get_xaxis().set_visible(False)ax.axes.get_yaxis().set_visible(False)if titles:ax.set_title(titles[i])return axes# 我们先读一点数据集看看啥样的 X, y next(iter(data.DataLoader(mnist_train, batch_size18))) show_images(X.reshape(18, 28, 28), 2, 9, titlesget_fashion_mnist_labels(y));# 通过内置数据加载器读取一批量数据自动随机打乱读取不需要我们自己定义 batch_size 256def get_dataloader_workers(): #save使用4个进程来读取数据return 4train_iter data.DataLoader(mnist_train, batch_size, shuffleTrue,num_workersget_dataloader_workers())测量以上用时基本2-3s。 总结整合以上数据读取过程代码如下 def load_data_fashion_mnist(batch_size, resizeNone): #save下载Fashion-MNIST数据集然后将其加载到内存中trans [transforms.ToTensor()]if resize:trans.insert(0, transforms.Resize(resize))trans transforms.Compose(trans)mnist_train torchvision.datasets.FashionMNIST(root../data, trainTrue, transformtrans, downloadTrue)mnist_test torchvision.datasets.FashionMNIST(root../data, trainFalse, transformtrans, downloadTrue)return (data.DataLoader(mnist_train, batch_size, shuffleTrue,num_workersget_dataloader_workers()),data.DataLoader(mnist_test, batch_size, shuffleFalse,num_workersget_dataloader_workers()))加载图像还可以调整其大小。
http://www.hkea.cn/news/14515500/

相关文章:

  • 石狮网站建设公司西宁网站制作
  • 南阳企业网站推广wordpress放在二级目录下
  • 深圳建设网站费用明细网站开发目前用的是什么语言
  • c 做网站网站蚌埠做网站多少钱
  • 新网站百度收录淘客WordPress主题
  • 北京做网站哪家专业平面设计有哪些公司
  • 平面设计欣赏网站推荐黄页直播免费观看大全网站
  • 怎么自己电脑做网站服务器wordpress图片防盗链插件
  • 做logo网站织梦快速建站
  • 下载别人做的ppt的网站台州网站制作报价
  • 如何做网站店铺wordpress中文安装教程
  • 正规的网站制作优化大师最新版本
  • 自己做的网站怎么挂网上建网站需要哪些知识
  • 免费做外贸的网站建设品牌seo推广咨询
  • 龙岗 网站建设深圳信科星沙网站制作
  • 无锡建设银行官网招聘网站wordpress 简洁博客
  • 自己做的网站如何管理工程建设内容包括哪些
  • 宝安网站制作哪里好温岭企业网站建设公司
  • 盐城市亭湖区城乡建设网站百度获客平台怎么收费的
  • 网站建设维护 微信哈尔滨做网站费用报价
  • 南昌手机模板建站app下载安装安卓版
  • 同城的网站建设南京最专业app开发公司
  • 南通优普网站建设制作xiu主题做的网站
  • 攻击jsp网站四川二级站seo整站优化排名
  • 德州做网站建设的公司网站的ico图标做多大
  • 上海微信网站建设公司电话通付盾 建设网站公司
  • 2016个人网站备案学做php网站
  • 免费的网站域名查询阿里云网站空间申请
  • 做网站赚钱容易吗网站添加二级域名
  • 乐清网站改版公司工业设计之父