当前位置: 首页 > news >正文

面包屑 网站做电影网站只放链接算侵权吗

面包屑 网站,做电影网站只放链接算侵权吗,做网站要不要钱,小程序致美发型设计在数字内容创作中#xff0c;视频扮演的角色日益重要。然而#xff0c;创作高质量视频通常耗时且昂贵。EasyAnimate 系列旨在利用人工智能技术简化这一过程。EasyAnimateV5 建立在其前代版本的基础之上#xff0c;不仅在质量上有所提升#xff0c;还在多模态数据处理和跨语…在数字内容创作中视频扮演的角色日益重要。然而创作高质量视频通常耗时且昂贵。EasyAnimate 系列旨在利用人工智能技术简化这一过程。EasyAnimateV5 建立在其前代版本的基础之上不仅在质量上有所提升还在多模态数据处理和跨语言支持上有了进一步的增强。 EasyAnimate 是阿里云人工智能平台 PAI 自主研发的一款基于 DiT 的视频生成框架能够生成高质量的长视频。它具备视频数据预处理、VAE 训练、DiT 训练、Lora训练、模型推理和模型评估等功能。此外EasyAnimate 在预训练模型的基础上通过少量图片进行 LoRA 微调可实现视频风格的转变大大增强了系统的扩展性和完整性使其在众多方案中更具竞争优势。 EasyAnimate在人工智能平台PAI上进行了集成供用户一键训练和部署在之前EasyAnimate版本的基础上EasyAnimateV5重点突出了以下特点 应用MMDIT结构拓展模型规模到7B与12B。 支持不同控制输入的控制模型。 更大幅度的图生视频策略。 更多数据和更好的多阶段训练。 用户可以使用EasyAnimate来进行任意风格视频模型的训练和推理。目前EasyAnimate将持续优化来达到更好的生成效果欢迎大家持续关注。 开源地址https://github.com/aigc-apps/EasyAnimate DSW测试地址阿里云登录 - 欢迎登录阿里云安全稳定的云计算服务平台 技术报告https://arxiv.org/abs/2405.18991 技术原理详解 模型规模拓展与结构更新 在我们的模型中我们借鉴了CogVideoX与Stable Diffusion 3的方法将文本和视频的嵌入连接起来进一步通过自注意力机制进行特征融合相比于原来Pixart通过Cross Attention实现文本特征融合方法该方法不仅节省了计算次数提高了计算效率还让模型可以根据输入的不同条件自适应地调整注意力权重灵活地融合多模态信息。 不过文本和视频两种模态的特征空间存在显著差异这可能导致它们的数值相差较大不利于对齐。为了解决这一问题我们参考Stable Diffusion 3采用MMDiT架构作为基础模型。我们为每种模态设计了不同的to_k、to_q、to_v和前馈网络并在一个自注意力机制中实现信息交互以增强模态间的对齐。 另外为了提高模型的理解能力我们将模型进行了放大。参考Flux我们模型的总参数量扩展到了7B与12B。 视频控制 EasyAnimate系列模型早在V3时便通过inpaint的方式实现了图生视频的功能现在我们将其拓展到视频控制上。 在原始的Inpaint模型基础上我们引入了一个新的控制信号替代了原有的mask信号。具体而言我们将控制信号经过VAE编码后与latent变量一起输入到patch流程中作为Guidance。 我们从26M的预训练数据中筛选出了大约443K条高质量视频并采用不同的方法来提取控制条件包括OpenPose、Scribble、Canny、Anime、MLSD、Hed和Depth这些被用作训练中的条件控制信号。在训练过程中我们根据不同的Token长度对视频进行了缩放整个训练分为两个阶段第一个阶段为13312对应512x512x49的视频第二个阶段为53248对应1024x1024x49的视频。 以EasyAnimateV5-12b-Control模型为例 在13312阶段 Batch size为128训练步数为5000。 在53248阶段 Batch size为96训练步数为2000。 训练后的模型可以输入Control Condition对输出视频进行控制可控生成。以下是工作原理图 基于Token长度的模型训练 EasyAnimateV5的训练分为多个阶段除了图片对齐VAE的阶段外其它阶段均为视频训练分别对应了不同的Token长度。 我们首先使用图片让VAE与Transformer快速对齐我们使用了10M的SAM数据集进行从0开始的文本图片对齐训练总共训练约120K步。相比于使用视频对齐使用图片对齐的速度更快且对目标的描述更清晰在训练完成后模型已经有能力根据提示词去生成对应的图片并且图片中的目标基本符合提示词描述。 然后我们使用视频训练我们创新的根据不同的Token长度对视频进行缩放后进行训练。视频训练分为多个阶段每个阶段的Token长度分别是3328对应256x256x49的视频13312对应512x512x49的视频53248对应1024x1024x49的视频。其中 3328阶段 使用了全部的数据大约26.6M训练文生视频模型Batch size为1536训练步数为66.5k。 13312阶段 使用了720P以上的视频训练大约17.9M训练文生视频模型Batch size为768训练步数为30k 使用了最高质量的视频训练大约0.5M训练图生视频模型 Batch size为384训练步数为5k 53248阶段 使用了最高质量的视频训练大约0.5M训练图生视频模型Batch size为196训练步数为5k。 训练时我们采用高低分辨率结合训练因此模型支持从512到1024任意分辨率的视频生成以13312 token长度为例 在512x512分辨率下视频帧数为49 在768x768分辨率下视频帧数为21 在1024x1024分辨率下视频帧数为9 这些分辨率与对应长度混合训练模型可以完成不同大小分辨率的视频生成。 图生视频策略 我们采用inpaint的方式实现图生视频需要重建的部分和重建的参考图分别通过VAE进行编码上图黑色的部分代表需要重建的部分白色的部分代表首图然后和随机初始化的latent进行concat传入网络当中进行预测。 假设我们期待生成一个384x672x49的视频此时的初始latent就是16x13x48x84需要重建的参考图编码后也是4x13x48x84另外我们对mask信息进行ResizeResize后是1x13x48x84三个向量concat到一起后便是33x13x48x84传入DiT模型中进行噪声预测。 由于我们mask信息可以根据需要传入我们不仅可以指定首图还可以指定尾图。另外我们还可以通过指定区域的mask实现视频编辑。 在视频生成过程中向视频中添加噪声会对生成结果产生显著影响。参考CogVideoX和SVD的做法我们会在非背景的参考图上加入噪声以打破原图并追求更大的运动幅度。与CogVideoX保持一致我们从均值为-3.0、标准差为0.5的正态分布中采样得到噪声幅度然后取其指数确保噪声幅度在合理范围内。我们通过函数会生成与输入视频形状相同的随机噪声并根据已计算的噪声幅度进行缩放。这些噪声只添加到需要参考的帧上得到加噪后的视频。 模型使用 DSW实践 我们支持从DSW上快速拉起DSW上的免费体验产品包含30GB内存可以支持EasyAnimateV5-7b-zh与EasyAnimateV5-12b-zh使用qfloat8在512分辨率下的运行 DLC中默认使用的是app.py拉起的gradio-ui在选择对应模型后我们就可以填入下方的prompt进行预测了。 本地拉起 我们同样支持通过本地拉起使用EasyAnimate。 以使用ComfyUI为例在本机上可以通过执行如下的代码首先将EasyAnimate插件和ComfyUI-VideoHelperSuite安装。 cd ComfyUI/custom_nodes/# Git clone the easyanimate itself git clone https://github.com/aigc-apps/EasyAnimate.git# Git clone the video outout node git clone https://github.com/Kosinkadink/ComfyUI-VideoHelperSuite.gitcd EasyAnimate/ python install.py然后运行ComfyUI软件根据需求将EasyAnimate的comfyui文件夹下的json文件拖入ComfyUI界面中在如下页面中进行视频生成。 联系我们 项目开源地址https://github.com/aigc-apps/EasyAnimate 钉钉交流群号 77450006752 参考文档 EasyAnimate: https://github.com/aigc-apps/EasyAnimate CogVideo X: https://github.com/THUDM/CogVideo/ Flux: https://github.com/black-forest-labs/flux Stable Diffusion 3: https://huggingface.co/stabilityai/stable-diffusion-3-medium/ SVD: https://arxiv.org/abs/2311.15127 MagVIT: https://github.com/google-research/magvit PixArt: https://github.com/PixArt-alpha/PixArt-alpha Open-Sora-Plan: https://github.com/PKU-YuanGroup/Open-Sora-Plan Open-Sora: https://github.com/hpcaitech/Open-Sora Animatediff: https://github.com/guoyww/AnimateDiff Llava-v1.6-vicuna-7b:https://huggingface.co/liuhaotian/llava-v1.6-vicuna-7b SAM: [PDF] Segment Anything | Semantic Scholar
http://www.hkea.cn/news/14586524/

相关文章:

  • 东莞高端商城网站制作网站如何做广告
  • 手机网站如何生成app贵阳网站开发报价
  • 百度公司做网站优化多少钱阿里巴巴网站的功能
  • 最火的做牛排沙拉网站泉州排名推广
  • 网站推广方案怎么写的谷歌推广
  • 旅店网站建设规划书wordpress如何适配手机
  • 潍坊网站建设小程序网络设计是不是艺术类
  • 腾讯云网站模板盘锦seo网站建设
  • 广州网站建设开发公司网站开发类标书报价明细表
  • 百度推广需要手机网站做百度竞价对网站有无要求
  • 如何在一个地方建设网站wordpress去版权
  • 机械类 网站源码如何将自己做的网站传到网上
  • 网站子页面设计html5网站制作软件
  • 苏州h5网站手机网页视频下载软件
  • 模板网站多少钱一个牛客网官网
  • 湖南软件开发海南网站优化公司
  • 朔州市2018年建设工程网站科技公司网站设计
  • 天猫做网站电商的推广方式
  • 没备案的网站收录100%能上热门的文案
  • 爱网站推广优化wordpress分类 菜单
  • 网站出现用户名密码提示标书制作图片
  • 大连建站方案成都住建局官网
  • 网站怎么做视频网络游戏交易平台
  • 满天星建设网站wordpress修改固定链接404
  • 优良的定制网站建设提供商网站将要准备建设的内容有哪些
  • 中国空间站和国际空间站对比专业企业网站设计
  • 网站开发谢辞wordpress关闭网站吗
  • 网站免费做软件有哪些网站建设的方式有哪些
  • 网站如何提高流量那个视频网站可以做gif
  • 网站开发主流语言网站建设代理政策