当前位置: 首页 > news >正文

新沂市网站建设关键词优化外包服务

新沂市网站建设,关键词优化外包服务,太原市一页网络科技有限公司,网站制作b s的基本步骤stable diffusion模型是Stability AI开源的一个text-to-image的扩散模型,其模型在速度与质量上面有了质的突破,玩家们可以在自己消费级GPU上面来运行此模型,本模型基于CompVis 和 Runway 团队的Latent Diffusion Models。本期我们不介绍stabl…

stable diffusion模型是Stability AI开源的一个text-to-image的扩散模型,其模型在速度与质量上面有了质的突破,玩家们可以在自己消费级GPU上面来运行此模型,本模型基于CompVis 和 Runway 团队的Latent Diffusion Models。本期我们不介绍stable diffusion模型,而是介绍一下Stability AI开源的4款LLM大语言模型。

也许是ChatGPT的大火,带动了LLM大语言模型的节奏,让各个大厂都开始搭建自己的LLM大语言模型,而作为一个AI绘画起家的Stability AI也开源了自己的四款LLM大语言模型。

Stable Beluga

Stability AI 及其 CarperAI 实验室发布了 Stable Beluga 1 及其后继产品 Stable Beluga 2。这是两个强大的新型开放式大型语言模型 (LLM)。 两种模型在不同的基准测试中都表现出了卓越的推理能力。

  • Stable Beluga 1 利用原始的 LLaMA 65B 基础模型,并使用标准 Alpaca 格式的数据集进行了微调。 
  • Stable Beluga 2 利用 LLaMA 2 70B 基础模型,并进行相关数据集上的微调。

与其他大模型相比,其Stable Beluga模型取得的不错的效果。且我们可以直接使用transformers模型库来实现Stable Beluga大语言模型。

首先需要安装transformers库,直接使用pip 进行安装即可。当然其python环境与torch相关的第三方库需要提前配置完成。

pip install transformers

安装完成后,就可以直接使用模型来进行AI对话。

import torch
from transformers import AutoModelForCausalLM, AutoTokenizer, pipeline
tokenizer = AutoTokenizer.from_pretrained("stabilityai/StableBeluga2", use_fast=False)
model = AutoModelForCausalLM.from_pretrained("stabilityai/StableBeluga2", torch_dtype=torch.float16, low_cpu_mem_usage=True, device_map="auto")
system_prompt = "### System:\nYou are Stable Beluga, an AI that follows instructions extremely well. Help as much as you can. Remember, be safe, and don't do anything illegal.\n\n"
message = "Write me a poem please"
prompt = f"{system_prompt}### User: {message}\n\n### Assistant:\n"
inputs = tokenizer(prompt, return_tensors="pt").to("cuda")
output = model.generate(**inputs, do_sample=True, top_p=0.95, top_k=0, max_new_tokens=256)
print(tokenizer.decode(output[0], skip_special_tokens=True))

代码运行后,会自动下载相关的预训练模型。

Stable LM

Stability AI 发布的开源语言模型 Stable LM,其 Alpha 版本有 30 亿和 70 亿个参数2种规格的模型,后续还有 150 亿到 650 亿个参数模型。 所有人在遵守 CC BY-SA-4.0 许可的条件下,可以出于商业或研究目的来使用或者调整 Stable LM 基础模型。

Stable LM 在 The Pile 上构建的新实验数据集上进行训练,该数据集包含 1.5 万亿个标记内容。 尽管该数据集的丰富性使 Stable LM 在会话和编程任务上具有令人惊讶的表现,但是其参数规模较小(只有 3 到 70 亿个参数,相比之下,GPT-3 有 1750 亿个参数)。

同样,Stable LM可以使用transformers库来实现。

from transformers import AutoModelForCausalLM, AutoTokenizer
tokenizer = AutoTokenizer.from_pretrained("stabilityai/stablelm-base-alpha-7b-v2")
model = AutoModelForCausalLM.from_pretrained("stabilityai/stablelm-base-alpha-7b-v2",trust_remote_code=True,torch_dtype="auto",)
model.cuda()
inputs = tokenizer("what is you name", return_tensors="pt").to("cuda")
tokens = model.generate(**inputs,max_new_tokens=64,temperature=0.75,top_p=0.95,do_sample=True,
)
print(tokenizer.decode(tokens[0], skip_special_tokens=True))

Stable Code 

顾名思义,stable code是为特定人群提供的code编码LLM大模型,类似Meta开源的code LIama,通过使用三种不同尺寸的模型来帮助编程开发人员进行编码工作,从而提高工作效率。 

基本模型首先使用BigCode 的堆栈数据集 (v1.2) ,并在多种编程语言进行训练,然后使用 Python、Go、Java、Javascript、C、markdown 和 C++ 等编程语言进行进一步训练。 

from transformers import AutoModelForCausalLM, AutoTokenizer
tokenizer = AutoTokenizer.from_pretrained("stabilityai/stablecode-completion-alpha-3b-4k")
model = AutoModelForCausalLM.from_pretrained("stabilityai/stablecode-completion-alpha-3b-4k",trust_remote_code=True,torch_dtype="auto",)
model.cuda()
inputs = tokenizer("import torch\nimport torch.nn as nn", return_tensors="pt").to("cuda")
tokens = model.generate(**inputs,max_new_tokens=48,temperature=0.2,do_sample=True,
)
print(tokenizer.decode(tokens[0], skip_special_tokens=True))

https://huggingface.co/stabilityai #参考链接

stable diffusion 相关阅读

Stable Diffusion加chilloutmixni真人图片生成模型

代码实现stable-diffusion模型

stable diffusion AI精准绘图——ControlNet控件的安装与使用

动画详解transformer  

更多transformer,VIT,swin tranformer
参考头条号:人工智能研究所
v号:启示AI科技
微信中复制如下链接,打开,免费体验chatgpthttps://wx2.expostar.cn/qz/pages/manor/index?id=1137&share_from_id=79482&sid=24

http://www.hkea.cn/news/377140/

相关文章:

  • 做外贸是用什么网站做新型网络营销方式
  • 心理咨询网站开发百度手机seo软件
  • 17网站一起做网批seo营销优化
  • 做赚钱网站程序员培训班要多少钱
  • 已经收录大规模修改收录页面对网站有影响吗什么软件可以推广自己的产品
  • 丁香园做科室网站厦门网络推广
  • 免费的企业网站制作提高网站权重的方法
  • 兰州网站制作怎么样网页在线生成
  • 自建网站网址雅虎搜索引擎首页
  • 注册科技有限公司可以做网站吗百度搜索排名机制
  • 武汉做网站好网站制作多少钱一个
  • 安阳网站建设怎么从网上找客户
  • 文章博客媒体网站模板怎样在百度上打广告
  • 做网站是不是要模板直接打开百度
  • 哪个网站做app推广服务商
  • 中国哪里在大建设网站优化培训学校
  • 自己做的网站点首页出错腾讯广告代理商加盟
  • 如何做免费的网站推广东莞百度seo
  • 宜昌网站制作公司百度竞价官网
  • 建站公司网站模板论坛怎么建网站
  • 上海做b2b网站公司深圳公司网络推广该怎么做
  • 自己做的网站怎么在百度可以查到网络小说网站三巨头
  • 怎么做网站客服弹窗站长之家seo工具包
  • 自己建一个电商网站吗网络营销的定义
  • 专门做金融的招聘网站四川seo选哪家
  • wordpress nginx伪静态配置拼多多seo怎么优化
  • 深圳网站开发电话惠州网络营销
  • 中宁网站建设公司商城全网推广运营公司
  • 网站文章列表如何排版郑州seo技术培训班
  • 小型b2c网站百度开户渠道商哪里找