化妆培训网站源码,wordpress 浏览ppt,怎么架设一个网站,建设网站工作汇报1 卷积神经网络与傅里叶变换、希尔伯特空间坐标变换的关系_卷积神经网络与傅里页变换之间的关系-CSDN博客 从卷积到图像卷积再到卷积神经网络#xff0c;到底卷了什么#xff1f;
一维信号卷积#xff1a;当前时刻之前的每一个时刻是如何对当前时刻产生影响的 图像卷积到底卷了什么
一维信号卷积当前时刻之前的每一个时刻是如何对当前时刻产生影响的 图像卷积卷积核的理解周围像素点是如何对当前像素点产生影响的不同的卷积核就是规定了不同影响的关键 请添加图片描述 卷积神经网络 第一步识别局部特征如上图的卷积核具备提取特征的卷积核保存某些特征即对周围像素点的一个主动试探不同卷积核主动选取 在这里插入图片描述 总结 1、对一维卷积来说以吃饭和消化求胃里食物剩量问题为例是不稳定输入稳定输出求系统存量的问题 2、对于图像处理来说一个卷积核就是规定了周围像素点是如何对当前像素点产生影响的。 3、不同的卷积核就是规定了不同影响的关键如何筛选图像的特征 卷积神经网络与傅里叶变换
对输入图像8进行特征提取分为不同的特征这样就能区别于全连接神经网络特征可以重复利用 1cnn中隐含的傅里叶变换
在这里插入图片描述 cnn的经过学习后的卷积运算过程就可以理解为傅里叶变换或者傅里叶级数展开也即不同正交向量的加权和。卷积核就可以理解维正交向量。 2频域里的每一个点都是对全时域范围的特定信息的一个浓缩
在这里插入图片描述 3CNN感受野与加窗傅里叶变换的关系
变换域做到了与位置无关但缺点却是全局感受能力太强了引起变换域的变化波动过大通过加窗傅里叶变换可以约束这种全局感受能力。 而加窗后的傅里叶变换就跟cnn感受野的设计很一致。这样就很能发现局部特征具有的一致性。 在这里插入图片描述 y-t与Y-w之间的关系y-t是不同w下的所有y-t也就是不同w下的正弦波的叠加。 4升维变换来理解空间域和变换域公式
相同问题在不同维度空间下表示的区别二维空间的一条线在无穷维/高维空间中只需要一个点就行。 v1v2vn就是高维空间下的正交基无穷维空间的一个点就是这些正交基不同权重下的加权和这个地方变换域的绿色曲线和时域黄色曲线的物理意义是不同的虽然形状相同但我认为不能互相表示 升维不是目的目的是让二维空间的曲线降维深度学习里面encoder产生latent space的作用。 在这里插入图片描述 5希尔伯特空间欧几里得空间的扩展
将低维图像映射到高位空间的一个点重点不是这个点本身而是高维空间的点可以用向量进行等价表示。即低位数据可以表示为高维空间的一组向量正交基的权重集合。 在这里插入图片描述
从时域到频域相当于在希尔伯特空间高维空间做了一次坐标变化。 dn所代表的正交向量可以用一个具体的向量e^(iwt)表示这就是傅里叶变换在希尔伯特空间下选择的特殊坐标系坐标轴或称选择的特殊正交基。 在这里插入图片描述 在这里插入图片描述
上述的表示更具一般性。而考虑傅里叶变换选择的正交基e^(iwt)其正交基的模为 在这里插入图片描述
所以将无穷小的累加转换为积分形式 6对傅里叶变换的修改
在这里插入图片描述
因为正弦余弦曲线是全局的以正余弦作为基向量锚点去衡量信号找到的特征自然是一个全局的特征 那有没有办法对这个基进行修改让其只考虑局部情况而不再考虑全局情况也就是问有窗口范围的基应该如何表示 简单的方法就是构建一个分段函数g() 在这里插入图片描述
为了维持函数表示处处可微改写函数g()为 在这里插入图片描述
a为方差来决定窗口的大小s为期望来决定窗口的位置n保持不变代表选择的不同模式 / 不同基向量。这里面用高斯分布作g函数的变换就是Gabor变换 这里不把窗口的大小作为变量知识一个参数。因为任何一个具体的 在这里插入图片描述
窗口大小都可以对应的完备的基n来确定。 在这里插入图片描述
Gabor变换完整表达g函数的不同就代表了不同的变换 在这里插入图片描述
g函数为指数函数则变化为拉普拉斯变换 在这里插入图片描述
如果窗口大小不再固定也作为一个控制变量可以根据频率动态变化这就是小波变换 总结
各种变换的本质就是在希尔伯特空间下选择了一组基向量然后对原来的函数进行变换。
具体变换之后有什么特性能做什么关键看变换是基于的那组基有什么特点。 回归的最开始的cnn
两个目标1.特征和位置无关即位置不同在变换域中式相同的表示2.特征应该是局部的。
n代表着变换域下的不同频率正交基
s代表着在时域上开出的窗口位置只有把窗口开在相应波形的位置上才能在变换域有明显的特征权重体现。 在这里插入图片描述
Gabor变换与cnn参数的对应关系
黄色f(t)对应原始图片
红色f(n,s): 对应feature map即基向量的权重
绿色s 对应中心像素点的位置卷积核的中心
模式基向量g_a(t-s)·e^(int)不同的卷积核下图模式1到模式4。可由反向传播优化更新得到。
红色a窗口大小卷积核的大小窗口的大小也是二维的 在这里插入图片描述 与卷积定理之间的关系 在这里插入图片描述 通过多层cnn的叠加就可以将感受野覆盖到整个图片 https://blog.csdn.net/u014439531/article/details/131904485 卷积神经网络的底层是傅里叶变换傅里叶变换的底层是希尔伯特空间坐标变换_哔哩哔哩_bilibili从“卷积”、到“图像卷积操作”、再到“卷积神经网络”“卷积”意义的3次改变_哔哩哔哩_bilibili 特征Features在机器学习和统计建模中特征是指数据集中用于预测或分析的变量。特征可以是数值型如年龄、价格、身高等或分类型如性别、产品类型、地区等。
特征是模型用来做出预测或决策的基础。 轴Axes在图表或图形中轴是用于表示数据维度的直线。在二维或三维空间中轴通常用来表示数据的不同维度或特征。例如 基上有眼睛鼻子脚三个坐标轴眼睛鼻子轴上的值很大而脚的值很小那机器就可以知道这可能是一张脸。而为什么基上这些轴代表了眼睛等等这样的特征这是通过训练集和梯度下降学习出来的人工无法去设定机器慢慢就从大量训练中发现可以从这些角度去识别图片。 再谈怎么实现局部特征的提取不用考虑空间关系这实际上可以从做卷积核操作的时候看出来。在用3*3这样的小卷积核而不是整个图片大小的卷积核去卷积的时候已经就忽略了那些不在卷积核范围的数据了 3*3的卷积核代表了一个3*3的局部特征只对3*3这一小块的局部数据进行卷积 池化层可以看作是滤波在数字信号处理中对数值求平均的过程其实就是一个低通FIR滤波器把高频分量去掉。采集的信号中往往有噪声大部分情况下噪声都是高频分量。也可以理解为给频域加窗只保留幅度比较大的低频部分。 人脑是可以通过眼睛鼻子这些局部特征来识别。
卷积操作和傅里叶变换一样是在希尔伯特空间的一种基变换。通过基变换就可以将图标的特征表示出来。 基的每个坐标轴会代表一种特征通过分析坐标轴上的值也就是特征的权重就可以识别 基、核、坐标系、变换都是同一个东西的不同说法其实就是编辑映射关系