当前位置: 首页 > news >正文

网站业务员怎么给客户做方案微信开放平台怎么跳过

网站业务员怎么给客户做方案,微信开放平台怎么跳过,刘娇娇做网站骗钱的,广东购物网站建设报价文章目录 前言文献阅读一摘要挑战基于时间序列的 GAN 分类 文献阅读二摘要介绍提出的模型:时间序列GAN (TimeGAN) 代码学习总结 前言 本周阅读两篇文献#xff0c;文献一是一篇时序生成方面的综述#xff0c;主要了解基于时间序列 的GAN主要分类以及时间序列GAN方面面临的一… 文章目录 前言文献阅读一摘要挑战基于时间序列的 GAN 分类 文献阅读二摘要介绍提出的模型:时间序列GAN (TimeGAN) 代码学习总结 前言 本周阅读两篇文献文献一是一篇时序生成方面的综述主要了解基于时间序列 的GAN主要分类以及时间序列GAN方面面临的一些问题。文献二是Time-series Generative Adversarial NetworksTimeGAN了解TimeGAN的原理以及网络的四个组成部分。最后GAN基础代码的学习。 文献阅读一 题目Generative Adversarial Networks in Time Series: A Systematic Literature Review 期刊名ACM Computing Surveys 摘要 生成对抗网络GAN研究在过去几年中呈指数级增长。它们的影响主要体现在计算机视觉领域具有逼真的图像和视频处理尤其是生成取得了重大进展。尽管这些计算机视觉的进步引起了很多关注但GAN应用已经跨越了时间序列和序列生成等学科。作为 GAN 的一个相对较新的利基市场实地工作正在进行中以开发高质量、多样化和私有的时间序列数据。在本文中我们将回顾为时间序列相关应用设计的GAN变体。我们提出了离散变体GAN和连续变体GAN的分类其中GAN处理离散时间序列和连续时间序列数据。在这里我们展示了该领域最新和最流行的文献——它们的架构、结果和应用。我们还提供了最流行的评估指标列表及其在应用程序中的适用性。还讨论了这些 GAN 的隐私措施以及处理敏感数据的进一步保护和方向。我们的目标是清晰简洁地构建该领域的最新和最先进的研究及其在现实世界技术中的应用。 挑战 时间序列 GAN 领域存在三个主要挑战与 GAN 创建的合成数据相关的训练稳定性、评估和隐私风险。 1.训练稳定性。最初的GAN工作已经证明了GAN在训练过程中的全局最优性和收敛性[38]。但是它仍然突出了训练GAN时可能出现的不稳定性问题。文献中对两个问题进行了很好的研究梯度消失和模态坍缩。 2.评价。已经提出了广泛的评估指标来评估GAN的性能[9109899]。 目前对计算机视觉中GAN的评估通常旨在考虑两个角度生成数据的质量和数量。最具代表性的定性指标是使用人工注释来确定生成图像的视觉质量。定量指标比较生成图像和真实图像之间的统计属性双样本测试例如最大平均差异MMD[93]初始分数IS[88]和Fréchet初始距离FID[51]。与评估基于图像的GAN相反很难从人类心理知觉中定性评估时间序列数据。在定性评估基于时间序列的GAN方面它通常进行t-SNE [95]和PCA [13]分析以可视化生成的分布与原始分布的相似程度[107]。基于时间序列的 GAN 的定量评估可以通过部署类似于基于图像的 GAN 的双样本测试来完成。 GAN的缺点 具有不稳定性GAN模型存在非收敛性梯度减小/消失和模式崩溃等问题。非收敛模型不会稳定并持续振荡从而导致其发散。梯度递减会阻止生成器学习任何东西因为鉴别器变得太成功了。模式崩溃是指发生器坍缩仅产生均匀的样本几乎没有变化。 GAN的第二个挑战在于其评估过程。对于时间序列GANs由于发表的论文数量相对较少尚未就生成的数据的评估指标达成一致。已经提出了不同的方法但到目前为止还没有一种方法成为指标领域的领跑者。 基于时间序列的 GAN 分类 分为离散变体和连续变体这里主要摘录连续变体。 1.连续RNN-GANC-RNN-GAN2016年 在以前的工作中RNN已被应用于音乐建模但通常使用符号表示来建模这种类型的顺序数据。Mogren提出了C-RNN-GAN这是使用GAN生成连续顺序数据的首批示例之一。生成器是RNN鉴别器是双向RNN它允许鉴别器在两个方向上获取序列上下文。 2.降噪甘NR-GAN2019年 NR-GAN设计用于连续时间序列信号中的降噪但更具体地说已用于小鼠脑电图EEG信号中的降噪[90]。该数据集由国际综合睡眠医学研究所IIIS提供。脑电图是大脑电活动的量度通常包含明显的噪声伪影。NR-GAN的核心思想是减少或消除EEG信号频域表示中存在的噪声。G 的架构是一个两层 1D CNN输出端有一个全连接层。D 包含几乎相同的两层 1D CNN 结构全连接层替换为 softmax 层以计算输入属于训练集的概率。 3.时间甘2019年 TimeGAN提供了一个框架该框架利用了传统的无监督GAN训练方法和更可控的监督学习方法[107]。通过将无监督GAN网络与监督AR模型相结合该网络旨在生成具有保留时间动态的时间序列。TimeGAN 框架的体系结构如图 9 所示。框架的输入被认为由两个元素组成静态特征和时态特征。s 表示编码器输入处静态特征的向量和时态特征的 x 。生成器采用从已知分布中提取的静态和时间随机特征向量的元组。真实和合成的潜在代码h和h^用于计算该网络的监督损失元素。鉴别器接收实数和合成潜在码的元组并将它们分类为实数 y 或合成 y^。 文献阅读二 题目Time-series Generative Adversarial Networks TimeGAN原论文 摘要 一个好的时间序列数据生成模型应该保持时间动态在这个意义上新的序列尊重变量之间的原始关系。将生成对抗网络(gan)引入序列设置的现有方法不能充分考虑时间序列数据特有的时间相关性。也就是GAN没有很好的考虑时间序列数据的时间相关性在时序数据的处理上不好与此同时用于序列预测的监督模型允许对网络动态进行更精细的控制本质上是确定性的。我们提出了一种新的框架来生成真实的时间序列数据该框架结合了无监督范式的灵活性和监督训练提供的控制。通过一个由监督目标和对抗目标共同优化的学习嵌入空间我们鼓励网络在采样过程中坚持训练数据的动态。在经验上我们使用各种真实和合成的时间序列数据集来评估我们的方法生成真实样本的能力。在定性和定量方面我们发现所提出的框架在相似性和预测能力方面始终显著优于最先进的基准。 介绍 在时间序列数据生成方面一方面大量的工作集中在改进序列预测的自回归模型的时间动态。这些主要解决了多步采样过程中的复合误差问题引入了各种训练时间修改以更准确地反映测试时间条件。然而虽然在预测的背景下有用但这种方法基本上是确定性的并不是真正的生成因为新序列可以在没有外部条件的情况下从中随机采样。另一方面一个单独的工作重点是直接将生成对抗网络(GAN)框架应用于序列数据主要是通过实例化循环网络作为生成器和鉴别器。虽然直接但对抗性目标寻求直接对p(x1:T)建模而不利用自回归先验。重要的是简单地对向量序列的标准GAN损失求和可能不足以确保网络的动态有效地捕获训练数据中存在的逐步依赖关系。 在本文中提出了一种新的机制将这两个研究线索联系在一起从而产生一个明确训练以保持时间动态的生成模型。我们提出了时间序列生成对抗网络(TimeGAN)这是一个在各个领域生成真实时间序列数据的自然框架。首先除了真实序列和合成序列上的无监督对抗损失外我们引入了一个使用原始数据作为监督的逐步监督损失从而明确地鼓励模型捕捉数据中的逐步条件分布。这利用了这样一个事实即训练数据中有更多的信息而不仅仅是每个数据是真实的还是合成的;我们可以明确地从真实序列的过渡动态中学习。 其次我们引入了一个嵌入网络来提供特征和潜在表征之间的可逆映射从而降低了对抗学习空间的高维性。 我们的方法是第一个将无监督GAN框架的灵活性与自回归模型中监督训练提供的控制相结合的方法。我们在多个真实世界和合成数据集的一系列实验中展示了其优势。定性地我们进行了t-SNE和PCA分析以可视化生成的分布与原始分布的相似程度。 提出的模型:时间序列GAN (TimeGAN) TimeGAN由四个网络组件组成:嵌入函数、恢复函数、序列生成器和序列鉴别器。关键的见解是自动编码组件(前两个)与对抗组件(后两个)联合训练这样TimeGAN就可以同时学习编码特征、生成表示和跨时间迭代。嵌入网络提供潜在空间对抗网络在该空间内运行真实数据和合成数据的潜在动态通过监督损失同步。 模型图 文献还在学习当中。 代码学习 1.用MNIST数据集对基础的GAN网络进行学习 鉴别器模型 # 鉴别器模型判别器的输入是12828的图片输出是二分类的概率值输出使用sigmoid激活输出[0,1] #二分类模型的损失函数是BCELOSS计算交叉熵损失 class Discriminator(nn.Module):def __init__(self, in_features):super().__init__()self.disc nn.Sequential(nn.Linear(in_features, 128), # 线性回归函数nn.LeakyReLU(0.1), #在赋值部分会保留一定的梯度相比于relu # 激活函数-relunn.Linear(128, 1), # 线性回归函数nn.Sigmoid(), # 激活函数—sigmoid)def forward(self, x): #x是28*28的图片x.view展平return self.disc(x) 生成器模型 # 生成器模型,生成器的输入输出设长度为100的噪声随机数和生成的图片28*28 #linear1:100----256 #linear2:256----512 #linear3:512----28*28 #reshape:28*28----(1,28,28)class Generator(nn.Module):def __init__(self, z_dim, img_dim): # z_dim: 将噪声图片拉伸成一维时候的大小super().__init__()self.gen nn.Sequential(nn.Linear(z_dim, 256),nn.LeakyReLU(0.1),nn.Linear(256, img_dim), # 28*28*1---784 # img_dim 将生成的二维图像拉伸成一维时候的大小nn.Tanh(), #tanh规范到[-1,1]使用tanh效果好)def forward(self, x): #定义前向传播X是100的噪声输入return self.gen(x) #self.gen(x).view(-1,28,28,1) 展开超参数设置数据加载损失函数 # 超参数的设置 device cuda if torch.cuda.is_available() else cpu lr 3e-4 # 学习率 z_dim 64 # 128 , 256 image_dim 28*28*1 # 784 batch_size 32 # 批量数 num_epochs 50 # 训练次数disc Discriminator(image_dim).to(device) # 初始化鉴别器 gen Generator(z_dim, image_dim).to(device) # 初始化生成器fix_noise torch.randn((batch_size, z_dim)).to(device) # 随机生成的噪声图像大小为批量数*将噪声图片拉伸成一维时候的大小 #对数据进行归一化[-1,1] transforms transforms.Compose([transforms.ToTensor(), #0-1:channel,high,witch#transforms.Normalize((0.1307, ), (0.3081, )),transforms.Normalize((0.5, ), (0.5, )),#归一化到[-1,1]] )# 下载数据和定义数据流 dataset datasets.MNIST(root../data/, transformtransforms, downloadTrue) loader DataLoader(dataset, batch_sizebatch_size, shuffleTrue)# 定义优化器类型和需要优化的参数 opt_disc optim.Adam(disc.parameters(), lrlr) opt_gen optim.Adam(gen.parameters(), lrlr)# 损失函数 criterion nn.BCELoss()训练代码 # 进行训练 for epoch in range(num_epochs):for batch_idx, (real, _) in enumerate(loader): # 遍历读取影像数据real real.view(-1, 784).to(device) # 将影像拉升成一维的数组形式batch_size real.shape[0]# 训练鉴别器 max(log(D(real)))log(1-D(G(z)))noise torch.randn(batch_size, z_dim).to(device) # 噪声影像fake gen(noise) # 将噪声影像放入生成器里面disc_real disc(real).view(-1) #判别器输入真实图片对真实图片的判断 # 将真实影像放入鉴别器中进行处理lossD_real criterion(disc_real, torch.ones_like(disc_real)) # 计算鉴别器处理的真实影像和 1 的损失值--- 得log(D(real))#torch.ones_like(disc_real) 希望得到和disc_real一样的的结果为全1disc_fake disc(fake).view(-1) #判别器输入生成图片对生成图片的预测结果 # 将噪声影像放入鉴别器中进行处理lossD_fake criterion(disc_fake, torch.zeros_like(disc_fake)) # 计算鉴别器处理的生成影像和 0 的损失值--— 得log(1-D(G(z)))lossD (lossD_real lossD_fake)/2 # 得到鉴别器的损失值上面讲解会提到disc.zero_grad() # 梯度清零lossD.backward(retain_graphTrue) # 后向传播opt_disc.step() # 更新参数# 训练生成器 min(log(1-D(G(z))) ----max (log(D(G(z)))output disc(fake).view(-1) # 将生成的fake图像放入鉴别器中lossG criterion(output, torch.ones_like(output)) #希望生成器的损失判定为1 # 得到生成器的损失值 ———— 得log(D(G(z))gen.zero_grad() #梯度归零lossG.backward()opt_gen.step()if batch_idx 0:print(fEpoch[{epoch}/{num_epochs}] Batch {batch_idx}/{len(loader)} \ fLoss D:{lossD:.4f}, Loss G{lossG:.4f})with torch.no_grad(): #累加所有的lossfake gen(fix_noise).reshape(-1, 1, 28, 28)data real.reshape(-1, 1, 28, 28)img_grid_fake torchvision.utils.make_grid(fake, normalizeTrue)img_grid_real torchvision.utils.make_grid(data, normalizeTrue)writer_fake.add_image(Mnist Fake Images, img_grid_fake, global_stepstep)writer_real.add_image(Mnist Real Images, img_grid_real, global_stepstep)step 1TimeGAN原论文的代码学习 源代码下载下来了原代码是tensorflow版本的版本较低运行会报错还在修改中。 总结 在阅读TimeGAN论文对里面的数学表达不是很理解想结合论文代码加深对论文内容以及TimeGAN框架的理解。 下周主要学习水文模型以及TimeGAN代码阅读环境TimeGAN方面的论文。
http://www.hkea.cn/news/14407520/

相关文章:

  • 代写网站莎娜琳官方网站做水
  • 网站建设市场供需分析wordpress 分页 插件
  • 做中东市场哪个网站合适3d溜溜网装修效果图
  • 中国品牌网站建设成都网站建设优惠活动
  • 水果网站源码广西城市建设学校官方网站
  • 广州网站建设哪家公司好wordpress+for+android
  • 设计师导航网站大全做网站公司西安
  • 网站建设公司成就seo运营专员
  • 酷维网站模版wordpress去掉google字体
  • 你了解网站建设吗 软文案例东莞广告公司东莞网站建设价格
  • 怎么建设好一个外贸购物网站东莞手机网站设计公司
  • 一个合格的网站设计4a网站建设公司
  • 网站的基本建设无锡百度竞价
  • 四川网站建设服务公司找方案的网站
  • 建设西安网站获取网站漏洞后下一步怎么做
  • 网站群建设情况河北省招标投标网官网
  • 网站上的qq咨询怎么做天津平台网站建设制作
  • 淘宝客网站做的好的wordpress注册链接修改
  • 企业网站 设计需求优质网站建设在哪里
  • 宁夏城乡建设厅网站wordpress 首页模块
  • 建筑网站建设公司八爪鱼网络网站建设
  • 在网上做贸易哪个网站好谷歌平台推广外贸
  • 天津网站建设 企航互联商洛做网站的公司电话
  • 北京网站制作17页孟津网站建设
  • 设计定制型网站建设沈阳妇科医院排名最好的医院
  • 装修网站模板源码wordpress改主题幻灯片尺寸
  • 网站可以更更换空间吗wordpress英文版安装
  • 网站图片如何优化山东通app官网下载二维码
  • 专业做冻货的网站深圳网站建设网络
  • 深圳网站开发外包wordpress页面构建