当前位置: 首页 > news >正文

做网站可以赚钱嘛腾讯企点官网下载

做网站可以赚钱嘛,腾讯企点官网下载,二手服务器做网站,做网站用什么网最好在训练扩散模型时,如果附加额外的条件图片数据,则需要我们准备相应的数据集。此时我们可以使用官网提供的脚本模板来控制导入我们需要的数据。 您可以参考官方的教程来实现具体的功能需求,为了更加简洁,我将简单描述一下整个流程…

在训练扩散模型时,如果附加额外的条件图片数据,则需要我们准备相应的数据集。此时我们可以使用官网提供的脚本模板来控制导入我们需要的数据。

您可以参考官方的教程来实现具体的功能需求,为了更加简洁,我将简单描述一下整个流程的关键点:

  1. 首先按照您的需求准备好所有的数据集文件,统一放到一个dataset_name(可以自己定义)目录下,可以划分多个子文件夹,但是需要在您的matadata.json中描述好相对路径位置;这一步和平时准备数据集的过程一样,只是多了额外的条件图片数据。
  2. 在dataset_name下创建同名的dataset_name.py脚本文件,该脚本文件的类名要和脚本名一致,并复制下文的模板内容,然后修改特定位置:
import pandas as pd
from huggingface_hub import hf_hub_url
import datasets
import os_VERSION = datasets.Version("0.0.2")_DESCRIPTION = "TODO"
_HOMEPAGE = "TODO"
_LICENSE = "TODO"
_CITATION = "TODO"_FEATURES = datasets.Features({"image": datasets.Image(),"conditioning_image": datasets.Image(),"text": datasets.Value("string"),},
)METADATA_URL = hf_hub_url("fusing/fill50k",filename="train.jsonl",repo_type="dataset",
)IMAGES_URL = hf_hub_url("fusing/fill50k",filename="images.zip",repo_type="dataset",
)CONDITIONING_IMAGES_URL = hf_hub_url("fusing/fill50k",filename="conditioning_images.zip",repo_type="dataset",
)_DEFAULT_CONFIG = datasets.BuilderConfig(name="default", version=_VERSION)class Fill50k(datasets.GeneratorBasedBuilder):BUILDER_CONFIGS = [_DEFAULT_CONFIG]DEFAULT_CONFIG_NAME = "default"def _info(self):return datasets.DatasetInfo(description=_DESCRIPTION,features=_FEATURES,supervised_keys=None,homepage=_HOMEPAGE,license=_LICENSE,citation=_CITATION,)def _split_generators(self, dl_manager):metadata_path = dl_manager.download(METADATA_URL)images_dir = dl_manager.download_and_extract(IMAGES_URL)conditioning_images_dir = dl_manager.download_and_extract(CONDITIONING_IMAGES_URL)return [datasets.SplitGenerator(name=datasets.Split.TRAIN,# These kwargs will be passed to _generate_examplesgen_kwargs={"metadata_path": metadata_path,"images_dir": images_dir,"conditioning_images_dir": conditioning_images_dir,},),]def _generate_examples(self, metadata_path, images_dir, conditioning_images_dir):metadata = pd.read_json(metadata_path, lines=True)for _, row in metadata.iterrows():text = row["text"]image_path = row["image"]image_path = os.path.join(images_dir, image_path)image = open(image_path, "rb").read()conditioning_image_path = row["conditioning_image"]conditioning_image_path = os.path.join(conditioning_images_dir, row["conditioning_image"])conditioning_image = open(conditioning_image_path, "rb").read()yield row["image"], {"text": text,"image": {"path": image_path,"bytes": image,},"conditioning_image": {"path": conditioning_image_path,"bytes": conditioning_image,},}
  1. 修改时主要关注两个函数,和一些命名:
  • 第一个是_split_generators(),把所有download相关的内容注释掉,这里会让你去下载官方的数据集,我们的需求是准备自己的数据集,所以为了方便直接把这个函数中的关键文件路径改为自己的绝对路径,比如metadata_path,就是你的metadata.json的路径,images_dir和conditioning_images_dir是你的图片的上级目录的绝对路径。这里我曾经测试过使用相对路径,发现是行不通的,主要的问题是diffuers在项目运行时会把当前的脚本先拷贝到c盘,然后再加载入内存,所以相对路径会不起作用。
  • 第二个是_generate_examples(),我们需要按照上个函数给出的路径依次加载图片文件和文本,这里主要是把所有的数据集内容修改为你需要的信息。这里有个关键点是,你必须保证metadata.json中第一列image的内容是不重复的,因为该列会作为索引的key值出现,否则会报错。
  • 最后是把脚本中所有与数据集信息相关的名称校对为你需要的。

在训练过程中,指定好数据集dataset_name的位置,diffusers会自动调用dataset_name.py来读取数据集中的数据。

http://www.hkea.cn/news/519914/

相关文章:

  • 网站怎么做显得简洁美观seo数据是什么意思
  • 阿里巴巴开通诚信通后网站怎么做网络优化网站
  • 东莞手机网站价格便宜个人免费建站软件
  • 电子商务网站建设的步骤一般为百度100%秒收录
  • 做企业网站怎么样免费的推广软件下载
  • 拓普网站建设美国搜索引擎
  • 网站开发者工资冯耀宗seo视频教程
  • 软件开发各阶段工作量比例搜索引擎优化的基础是什么
  • 网站怎么做才能将名声打响云搜索app
  • 南阳做网站优化哪家好一级域名生成二级域名
  • 3322动态域名官网郑州seo联系搜点网络效果好
  • 网络营销渠道的类型河北seo基础教程
  • 做微信网站多少钱seo内部优化包括哪些内容
  • 中国城乡建设网站网络优化公司排名
  • 个人网站做淘宝客教程torrentkitty磁力搜索引擎
  • 广州北京网站建设seo培训讲师招聘
  • 手机上免费自己做网站网络营销案例分享
  • 长沙大型网站建设谷歌账号
  • 大兴德艺网站建设发布悬赏任务的推广平台
  • html5制作网站模板百度产品大全首页
  • 贵阳网站建设贵阳百度推广怎么推广
  • 瓮安建设局网站google play三件套
  • 大型门户网站模板营销神器
  • 学设计的网站都有哪些seo和sem
  • 如何做网站流量买卖营销型网站的特点
  • 装修设计网站哪个平台最好软文推广多少钱一篇
  • 怎么做微信里的网页网站链接网站设计平台
  • 长宁专业做网站网络营销案例分享
  • 哈尔滨专业建网站哪家好码迷seo
  • 涞水县住房和城乡建设局网站厦门seo专业培训学校