当前位置: 首页 > news >正文

骨干专业群建设任务书网站查询域名注册信息

骨干专业群建设任务书网站,查询域名注册信息,天宁网站建设,阿里云 wordpress 伪静态在训练扩散模型时,如果附加额外的条件图片数据,则需要我们准备相应的数据集。此时我们可以使用官网提供的脚本模板来控制导入我们需要的数据。 您可以参考官方的教程来实现具体的功能需求,为了更加简洁,我将简单描述一下整个流程…

在训练扩散模型时,如果附加额外的条件图片数据,则需要我们准备相应的数据集。此时我们可以使用官网提供的脚本模板来控制导入我们需要的数据。

您可以参考官方的教程来实现具体的功能需求,为了更加简洁,我将简单描述一下整个流程的关键点:

  1. 首先按照您的需求准备好所有的数据集文件,统一放到一个dataset_name(可以自己定义)目录下,可以划分多个子文件夹,但是需要在您的matadata.json中描述好相对路径位置;这一步和平时准备数据集的过程一样,只是多了额外的条件图片数据。
  2. 在dataset_name下创建同名的dataset_name.py脚本文件,该脚本文件的类名要和脚本名一致,并复制下文的模板内容,然后修改特定位置:
import pandas as pd
from huggingface_hub import hf_hub_url
import datasets
import os_VERSION = datasets.Version("0.0.2")_DESCRIPTION = "TODO"
_HOMEPAGE = "TODO"
_LICENSE = "TODO"
_CITATION = "TODO"_FEATURES = datasets.Features({"image": datasets.Image(),"conditioning_image": datasets.Image(),"text": datasets.Value("string"),},
)METADATA_URL = hf_hub_url("fusing/fill50k",filename="train.jsonl",repo_type="dataset",
)IMAGES_URL = hf_hub_url("fusing/fill50k",filename="images.zip",repo_type="dataset",
)CONDITIONING_IMAGES_URL = hf_hub_url("fusing/fill50k",filename="conditioning_images.zip",repo_type="dataset",
)_DEFAULT_CONFIG = datasets.BuilderConfig(name="default", version=_VERSION)class Fill50k(datasets.GeneratorBasedBuilder):BUILDER_CONFIGS = [_DEFAULT_CONFIG]DEFAULT_CONFIG_NAME = "default"def _info(self):return datasets.DatasetInfo(description=_DESCRIPTION,features=_FEATURES,supervised_keys=None,homepage=_HOMEPAGE,license=_LICENSE,citation=_CITATION,)def _split_generators(self, dl_manager):metadata_path = dl_manager.download(METADATA_URL)images_dir = dl_manager.download_and_extract(IMAGES_URL)conditioning_images_dir = dl_manager.download_and_extract(CONDITIONING_IMAGES_URL)return [datasets.SplitGenerator(name=datasets.Split.TRAIN,# These kwargs will be passed to _generate_examplesgen_kwargs={"metadata_path": metadata_path,"images_dir": images_dir,"conditioning_images_dir": conditioning_images_dir,},),]def _generate_examples(self, metadata_path, images_dir, conditioning_images_dir):metadata = pd.read_json(metadata_path, lines=True)for _, row in metadata.iterrows():text = row["text"]image_path = row["image"]image_path = os.path.join(images_dir, image_path)image = open(image_path, "rb").read()conditioning_image_path = row["conditioning_image"]conditioning_image_path = os.path.join(conditioning_images_dir, row["conditioning_image"])conditioning_image = open(conditioning_image_path, "rb").read()yield row["image"], {"text": text,"image": {"path": image_path,"bytes": image,},"conditioning_image": {"path": conditioning_image_path,"bytes": conditioning_image,},}
  1. 修改时主要关注两个函数,和一些命名:
  • 第一个是_split_generators(),把所有download相关的内容注释掉,这里会让你去下载官方的数据集,我们的需求是准备自己的数据集,所以为了方便直接把这个函数中的关键文件路径改为自己的绝对路径,比如metadata_path,就是你的metadata.json的路径,images_dir和conditioning_images_dir是你的图片的上级目录的绝对路径。这里我曾经测试过使用相对路径,发现是行不通的,主要的问题是diffuers在项目运行时会把当前的脚本先拷贝到c盘,然后再加载入内存,所以相对路径会不起作用。
  • 第二个是_generate_examples(),我们需要按照上个函数给出的路径依次加载图片文件和文本,这里主要是把所有的数据集内容修改为你需要的信息。这里有个关键点是,你必须保证metadata.json中第一列image的内容是不重复的,因为该列会作为索引的key值出现,否则会报错。
  • 最后是把脚本中所有与数据集信息相关的名称校对为你需要的。

在训练过程中,指定好数据集dataset_name的位置,diffusers会自动调用dataset_name.py来读取数据集中的数据。

http://www.hkea.cn/news/509851/

相关文章:

  • 五莲网站建设维护推广网络营销推广及优化方案
  • 重庆网红整站多关键词优化
  • 动易网站cms一级消防工程师考试
  • wordpress更新报错想找搜索引擎优化
  • 提供网站建设费用资源网
  • wordpress怎么使用主题seo优化评论
  • 柳州做网站如何建网站详细步骤
  • 黄岛做网站哪家好四川seo关键词工具
  • dede门户网站模版写软文推广
  • 网站开发者排名开发一个app平台大概需要多少钱?
  • 做网站 博客百度推广助手客户端
  • 温州市手机网站制作哪家好爱站网长尾词挖掘
  • 党委网站建设要求凡科建站靠谱吗
  • wordpress 安卓客户端福建seo优化
  • 襄阳seo技术长沙seo网站优化
  • 做一的同志小说网站做seo要投入什么
  • 网站的文件结构百度搜索排名怎么收费
  • 全景网站app网络营销工具分析
  • 南京建设工程交易中心网站seo是什么的简称
  • 利用vps做网站关键字排名查询
  • 常熟网站制作找哪家好品牌型网站制作价格
  • 怎么做自己网站推广网络广告
  • 化州网站建设促销方法100种
  • 长沙专业网站设计平台新闻最新消息10条
  • 惠州网站建设制作宣传推广方案
  • 宁波网站推广外包服务长岭网站优化公司
  • 哈尔滨市哪里做淘宝网站seo课程心得体会
  • 做网站建设公司企业一个企业该如何进行网络营销
  • 移动端h5网站开发服务企业seo推广
  • 管理公司网站建设引擎搜索优化