当前位置: 首页 > news >正文

如何免费制作企业网站wordpress插件怎么汉化

如何免费制作企业网站,wordpress插件怎么汉化,健身俱乐部网站建设方案设计,施工企业安全培训一、ChatYuan-large-v2 ChatYuan-large-v2是一个开源的支持中英双语的功能型对话语言大模型#xff0c;与其他 LLM 不同的是模型十分轻量化#xff0c;并且在轻量化的同时效果相对还不错#xff0c;仅仅通过0.7B参数量就可以实现10B模型的基础效果#xff0c;正是其如此的…一、ChatYuan-large-v2 ChatYuan-large-v2是一个开源的支持中英双语的功能型对话语言大模型与其他 LLM 不同的是模型十分轻量化并且在轻量化的同时效果相对还不错仅仅通过0.7B参数量就可以实现10B模型的基础效果正是其如此的轻量级使其可以在普通显卡、 CPU、甚至手机上进行推理而且 INT4 量化后的最低只需 400M 。 v2 版本相对于以前的 v1 版本是使用了相同的技术方案但在指令微调、人类反馈强化学习、思维链等方面进行了优化。 在本专栏前面文章介绍了 ChatYuan-large-v2 和 langchain 相结合的使用地址如下 LangChain 本地化方案 - 使用 ChatYuan-large-v2 作为 LLM 大语言模型 本篇文章以 ChatYuan-large-v2 模型为基础 Fine-tuning 广告生成 任务。 二、数据集处理 数据集这里使用 ChatGLM 官方在 Fine-tuning 中使用到的 广告生成 数据集。 下载地址如下 https://drive.google.com/file/d/13_vf0xRTQsyneRKdD1bZIr93vBGOczrk/view 数据已 JSON 的形式存放分为了 train 和 dev 两种类型 数据格式如下所示 {content:类型#裤*版型#宽松*风格#性感*图案#线条*裤型#阔腿裤,summary:宽松的阔腿裤这两年真的吸粉不少明星时尚达人的心头爱。毕竟好穿时尚谁都能穿出腿长2米的效果宽松的裤腿当然是遮肉小能手啊。上身随性自然不拘束面料亲肤舒适贴身体验感棒棒哒。系带部分增加设计看点还让单品的设计感更强。腿部线条若隐若现的性感撩人。颜色敲温柔的与裤子本身所呈现的风格有点反差萌。 } {content:类型#裤*版型#宽松*风格#性感*图案#线条*裤型#阔腿裤,summary:宽松的阔腿裤这两年真的吸粉不少明星时尚达人的心头爱。毕竟好穿时尚谁都能穿出腿长2米的效果宽松的裤腿当然是遮肉小能手啊。上身随性自然不拘束面料亲肤舒适贴身体验感棒棒哒。系带部分增加设计看点还让单品的设计感更强。腿部线条若隐若现的性感撩人。颜色敲温柔的与裤子本身所呈现的风格有点反差萌。 } {content:类型#裙*风格#简约*图案#条纹*图案#线条*图案#撞色*裙型#鱼尾裙*裙袖长#无袖,summary:圆形领口修饰脖颈线条适合各种脸型耐看有气质。无袖设计尤显清凉简约横条纹装饰使得整身人鱼造型更为生动立体。加之撞色的鱼尾下摆深邃富有诗意。收腰包臀,修饰女性身体曲线结合别出心裁的鱼尾裙摆设计勾勒出自然流畅的身体轮廓展现了婀娜多姿的迷人姿态。 } {content:类型#上衣*版型#宽松*颜色#粉红色*图案#字母*图案#文字*图案#线条*衣样式#卫衣*衣款式#不规则,summary:宽松的卫衣版型包裹着整个身材宽大的衣身与身材形成鲜明的对比描绘出纤瘦的身形。下摆与袖口的不规则剪裁设计彰显出时尚前卫的形态。被剪裁过的样式呈现出布条状自然地垂坠下来别具有一番设计感。线条分明的字母样式有着花式的外观棱角分明加上具有少女元气的枣红色十分有年轻活力感。粉红色的衣身把肌肤衬托得很白嫩又健康。 } {content:类型#裙*版型#宽松*材质#雪纺*风格#清新*裙型#a字*裙长#连衣裙,summary:踩着轻盈的步伐享受在午后的和煦风中让放松与惬意感为你免去一身的压力与束缚仿佛要将灵魂也寄托在随风摇曳的雪纺连衣裙上吐露出UNK微妙而又浪漫的清新之意。宽松的a字版型除了能够带来足够的空间也能以上窄下宽的方式强化立体层次携带出自然优雅的曼妙体验。 } {content:类型#上衣*材质#棉*颜色#蓝色*风格#潮*衣样式#polo*衣领型#polo领*衣袖长#短袖*衣款式#拼接,summary:想要在人群中脱颖而出吗那么最适合您的莫过于这款polo衫短袖采用了经典的polo领口和柔软纯棉面料让您紧跟时尚潮流。再配合上潮流的蓝色拼接设计使您的风格更加出众。就算单从选料上来说这款polo衫的颜色沉稳经典是这个季度十分受大众喜爱的风格了而且兼具舒适感和时尚感。 }其中任务的方式为根据输入content生成一段广告词summary。 train.json 共有 114599 条记录这里为了演示效果取前 50000 条数据进行训练、5000 条数据进行验证 import os# 将训练集进行提取 def doHandle(json_path, train_size, val_size, out_json_path):train_count 0val_count 0train_f open(os.path.join(out_json_path, train.json), a, encodingutf-8)val_f open(os.path.join(out_json_path, val.json), a, encodingutf-8)with open(json_path, r, encodingutf-8) as f:for line in f:if train_count train_size:train_f.writelines(line)train_count train_count 1elif val_count val_size:val_f.writelines(line)val_count val_count 1else:breakprint(数据处理完毕)train_f.close()val_f.close()if __name__ __main__:json_path ./data/AdvertiseGen/train.jsonout_json_path ./data/train_size 50000val_size 5000doHandle(json_path, train_size, val_size, out_json_path) 处理之后可以看到两个生成的文件 下面基于上面的数据格式构建 Dataset from torch.utils.data import Dataset, DataLoader, RandomSampler, SequentialSampler import torch import jsonclass SummaryDataSet(Dataset):def __init__(self, json_path: str, tokenizer, max_length300):self.tokenizer tokenizerself.max_length max_lengthself.content_data []self.summary_data []with open(json_path, r, encodingutf-8) as f:for line in f:if not line or line :continuejson_line json.loads(line)content json_line[content]summary json_line[summary]self.content_data.append(content)self.summary_data.append(summary)print(data load size, len(self.content_data))def __len__(self):return len(self.content_data)def __getitem__(self, index):source_text str(self.content_data[index])target_text str(self.summary_data[index])source self.tokenizer.batch_encode_plus([source_text],max_lengthself.max_length,pad_to_max_lengthTrue,truncationTrue,paddingmax_length,return_tensorspt,)target self.tokenizer.batch_encode_plus([target_text],max_lengthself.max_length,pad_to_max_lengthTrue,truncationTrue,paddingmax_length,return_tensorspt,)source_ids source[input_ids].squeeze()source_mask source[attention_mask].squeeze()target_ids target[input_ids].squeeze()target_mask target[attention_mask].squeeze()return {source_ids: source_ids.to(dtypetorch.long),source_mask: source_mask.to(dtypetorch.long),target_ids: target_ids.to(dtypetorch.long),target_ids_y: target_ids.to(dtypetorch.long),} 三、模型训练 下载 ChatYuan-large-v2 模型 https://huggingface.co/ClueAI/ChatYuan-large-v2/tree/main 下面基于 ChatYuan-large-v2 进行训练 import pandas as pd import torch from torch.utils.data import DataLoader import os, time from transformers import T5Tokenizer, T5ForConditionalGeneration from gen_dataset import SummaryDataSetdef train(epoch, tokenizer, model, device, loader, optimizer):model.train()time1 time.time()for _, data in enumerate(loader, 0):y data[target_ids].to(device, dtypetorch.long)y_ids y[:, :-1].contiguous()lm_labels y[:, 1:].clone().detach()lm_labels[y[:, 1:] tokenizer.pad_token_id] -100ids data[source_ids].to(device, dtypetorch.long)mask data[source_mask].to(device, dtypetorch.long)outputs model(input_idsids,attention_maskmask,decoder_input_idsy_ids,labelslm_labels,)loss outputs[0]# 每100步打印日志if _ % 100 0 and _ ! 0:time2 time.time()print(_, epoch: str(epoch) -loss: str(loss) ;each steps time spent: str(float(time2 - time1) / float(_ 0.0001)))optimizer.zero_grad()loss.backward()optimizer.step()def validate(epoch, tokenizer, model, device, loader, max_length):model.eval()predictions []actuals []with torch.no_grad():for _, data in enumerate(loader, 0):y data[target_ids].to(device, dtypetorch.long)ids data[source_ids].to(device, dtypetorch.long)mask data[source_mask].to(device, dtypetorch.long)generated_ids model.generate(input_idsids,attention_maskmask,max_lengthmax_length,num_beams2,repetition_penalty2.5,length_penalty1.0,early_stoppingTrue)preds [tokenizer.decode(g, skip_special_tokensTrue, clean_up_tokenization_spacesTrue) for g ingenerated_ids]target [tokenizer.decode(t, skip_special_tokensTrue, clean_up_tokenization_spacesTrue) for t in y]if _ % 1000 0:print(fCompleted {_})predictions.extend(preds)actuals.extend(target)return predictions, actualsdef T5Trainer(train_json_path, val_json_path, model_dir, batch_size, epochs, output_dir, max_length300):tokenizer T5Tokenizer.from_pretrained(model_dir)model T5ForConditionalGeneration.from_pretrained(model_dir)device torch.device(cuda if torch.cuda.is_available() else cpu)model model.to(device)train_params {batch_size: batch_size,shuffle: True,num_workers: 0,}training_set SummaryDataSet(train_json_path, tokenizer, max_lengthmax_length)training_loader DataLoader(training_set, **train_params)val_params {batch_size: batch_size,shuffle: False,num_workers: 0,}val_set SummaryDataSet(val_json_path, tokenizer, max_lengthmax_length)val_loader DataLoader(val_set, **val_params)optimizer torch.optim.Adam(paramsmodel.parameters(), lr1e-4)for epoch in range(epochs):train(epoch, tokenizer, model, device, training_loader, optimizer)print(保存模型)model.save_pretrained(output_dir)tokenizer.save_pretrained(output_dir)# 验证with torch.no_grad():predictions, actuals validate(epoch, tokenizer, model, device, val_loader, max_length)# 验证结果存储final_df pd.DataFrame({Generated Text: predictions, Actual Text: actuals})final_df.to_csv(os.path.join(output_dir, predictions.csv))if __name__ __main__:train_json_path ./data/train.jsonval_json_path ./data/val.json# 下载模型目录位置model_dir chatyuan_large_v2batch_size 5epochs 1max_length 300output_dir ./model# 开始训练T5Trainer(train_json_path,val_json_path,model_dir,batch_size,epochs,output_dir,max_length) 运行后可以看到如下日志打印训练大概占用 33G 的显存如果显存不够可以调低些 batch_size 的大小 等待训练结束后 可以在 model 下看到保存的模型 这里可以先看下 predictions.csv 验证集的效果 可以看到模型生成的结果有点不太好这里仅对前 50000 条进行了训练并且就训练了一个 epoch 后面可以增加数据集大小和增加 epoch 应该能达到更好的效果下面通过调用模型测试一下生成的文本效果。 四、模型测试 # -*- coding: utf-8 -*- from transformers import T5Tokenizer, T5ForConditionalGeneration import torch# 这里是模型下载的位置 model_dir ./modeltokenizer T5Tokenizer.from_pretrained(model_dir) model T5ForConditionalGeneration.from_pretrained(model_dir)while True:text input(请输入内容: \n )if not text or text :continueif text q:breakencoded_input tokenizer(text, paddingmax_length, truncationTrue, max_length300)input_ids torch.tensor([encoded_input[input_ids]])attention_mask torch.tensor([encoded_input[attention_mask]])generated_ids model.generate(input_idsinput_ids,attention_maskattention_mask,max_length300,num_beams2,repetition_penalty2.5,length_penalty1.0,early_stoppingTrue)reds [tokenizer.decode(g, skip_special_tokensTrue, clean_up_tokenization_spacesTrue) for g ingenerated_ids]print(reds) 效果测试
http://www.hkea.cn/news/14404374/

相关文章:

  • 详细的网站规划建设方案服务器简述网站开发的三层架构
  • 刘强东最开始在哪个平台做网站哪个网站可以做高像素动图
  • 网站建设与运营 就业嘉瑞建设有限公司网站
  • 衡阳网站设计小程序推广收费价目表
  • 网站权重如何提高咖啡的网站建设策划书
  • 网上购物网站开发单位网站建设意见
  • 手机网站内容管理系统京东网站的建设与发展
  • tiktok跨境电商大连网站优化步骤
  • 我的网站没备案怎么做淘宝客推广网页设计分为几个部分
  • 有一个网站自己做链接获取朋友位置中国建设教育网证件查询
  • 建设部网站 防火规范北京装修公司哪家口碑好一些
  • 网站建设用什重庆百度推广
  • 国内做服装的网站有哪些网页游戏单机
  • 长春网站建设首选网诚传媒_网站建设 竞赛 方案
  • 有服务器怎么做网站上海企业网站建设公司
  • 广州手机网站设计一份完整的营销策划方案
  • 网站的大图传不上去是怎么回事wordpress 主题 微信
  • 网站没备案可以访问吗怎么建设电子商城网站
  • 自己怎么做淘宝客网站吗谷歌浏览器中文手机版
  • 文山网站建设联系电话做一个主题的网页代码
  • 微信企业官方网站怎么做做网站如何赚钱知乎
  • 做的好的电商网站项目口碑营销案例简短
  • 汽车技术资料网站建设谷歌浏览器下载手机版最新版
  • 知名企业网站分析 比较评估网站的建设进入哪个科目
  • 南京网站建设制作移动官网网站建设
  • 网站开发管理课程设计说明天晴创艺网站建设百度小程序
  • 在大学做网站十堰seo优化方法
  • 网站权限设计南京网站制作学校
  • 织梦企业网站管理系统qq浏览器小程序
  • 北京app制作多少钱wordpress 百度优化