当前位置: 首页 > news >正文

做新房用哪个网站好什么网站需要数据库

做新房用哪个网站好,什么网站需要数据库,wordpress调节宽度,福州百度关键词排名近期#xff0c;我国一款开源模型 DeepSeek-R1以低成本和高性能震撼了全球科技界。该模型的开源性使开发者能够在本地环境中部署和运行#xff0c;提供了更高的灵活性和控制力。如果你也想在本地部署 DeepSeek-R1#xff0c;可以参考以下完整的教程#xff0c;涵盖Mac 版本…近期我国一款开源模型 DeepSeek-R1以低成本和高性能震撼了全球科技界。该模型的开源性使开发者能够在本地环境中部署和运行提供了更高的灵活性和控制力。如果你也想在本地部署 DeepSeek-R1可以参考以下完整的教程涵盖Mac 版本的安装、优化以及 API 调用。 1. 引言 1.1 什么是 DeepSeek-R1 DeepSeek-R1 是由中国初创公司 DeepSeek 开发的开源人工智能模型专注于增强推理能力。 其独特之处在于主要通过强化学习进行训练无需大量的监督微调数据。 在数学、代码生成和自然语言推理等任务中DeepSeek-R1 展现了卓越的性能。 与其他同类模型相比DeepSeek-R1 具有以下优势 高效的训练方法采用纯强化学习策略显著提升了模型的推理能力。 开源与可定制性遵循 MIT 许可证开源允许用户自由使用、修改和商用并支持通过蒸馏技术训练其他模型提供了高度的灵活性。 中文能力与其他模型相比DeepSeek-R1 在中文处理能力方面表现出色尤其在古文和历史研究领域其处理和推理能力尤为突出。 在中文任务的基准测试如 C-Eval中DeepSeek-R1 的表现也显著优于其他开源模型。 1.2 为什么选择 Ollama 进行本地部署 一键安装无需复杂环境配置相比 transformers llama.cpp。 高效量化支持 FP16、GGUF 格式减少显存占用。 1.3 适用人群 需要本地运行大模型的开发者。 AI 研究人员或爱好者想要低成本测试 LLM。 需要离线 AI 处理任务的用户。 2. 环境要求 2.1 硬件要求 根据运行模型的参数量大小对于硬件配置有不同的要求请根据个人主机配置选取对应的模型。以下表格指的是推荐配置实际的运行稳定性会根据主机后台运行的其他进程和资源占用情况波动比如博主使用11C36GB的Mac部署了32B参数的DeepSeek仍然能够正常使用。 注Apple Silicon芯片因GPU与CPU共享内存因此不需要额外的显存 模型版本 参数量 CPU 内存 DeepSeek-R1-1.5B 15亿 2C 8GB DeepSeek-R1-7B 70亿 4C 16GB DeepSeek-R1-8B 80亿 4C 16GB DeepSeek-R1-14B 140亿 4C 32GB DeepSeek-R1-32B 320亿 6C 64GB DeepSeek-R1-70B 700亿 8C 128GB 2.2 软件要求 macOS 13Apple Silicon 原生支持 3. 安装并启动 Ollama 3.1 安装 打开终端工具使用 Homebrew 安装输入命令如下 brew install ollama 3.3 启动Ollama 点击应用图标启动启动完成后可以在主机菜单栏中看到一只羊驼的logo 使用命令启动命令如下 ollama serve 启动后能够看到ollama的启动日志 注上述两种启动方式建议只使用一种因为ollama进程会占用主机的11434端口如果通过点击应用图标启动后再使用命令启动的话命令启动的进程就会因为端口号已经被占用而导致启动失败报错信息如下图所示 4. 运行 DeepSeek-R1 4.1 运行 DeepSeek-R1 DeepSeek-R1的模型在ollama中的名称就是deepseek-r1可以使用deepseek-r1:{参数量}的格式选取指定参数量的模型比如博主运行的是32B参数量的模型命令就是 ollama run deepseek-r1:32b 其他参数量的模型运行示例如下 ollama run deepseek-r1:1.5b ollama run deepseek-r1:7b ollama run deepseek-r1:8b ollama run deepseek-r1:14b ollama run deepseek-r1:32b ollama run deepseek-r1:70b 如果是第一次运行该模型则ollama会先下载所需的文件下载完成后会自动运行一切正常的话终端将进入交互模式启动过程如下图所示 4.2 本地体验 DeepSeek-R1模型 运行成功后即可体验模型可以通过终端工具与模型进行对话运行结果如下图所示 在模型给出的回答中think和/think符号中的文本是模型的思考过程可以让用户看到模型在回答问题时考虑到的各个方面以便让用户对后面的提问进行查漏补缺。 5. 通过 API 调用 5.1 使用 cURL 调用 curl -X POST http://localhost:11434/api/generate -d {model: deepseek-r1:32b,prompt: 你是谁,stream: false } 上述命令中model参数指的是使用ollama所运行的模型博主使用的是32b模型所以参数是deepseek-r1:32bprompt参数的值就是你所想问的问题大家注意根据自己的需要进行提问调用返回的结果中会有一些其他参数如时间、上下文、token信息等在使用ollama客户端体验模型时ollama客户端自动处理了这些参数在使用curl调用的时候这些参数就会都展示出来调用结果如下图所示 5.2 使用 Python 调用 DeepSeek-R1 import requests import jsonOLLAMA_API_URL http://localhost:11434/api/generatepayload {model: deepseek-r1:32b,prompt: 你是谁,stream: False }response requests.post(OLLAMA_API_URL, datajson.dumps(payload))if response.status_code 200:result response.json()print(模型输出, result.get(response, 未获取到结果)) else:print(请求失败状态码, response.status_code, 错误信息, response.text) 运行结果如下图所示 5.3 Web交互 如果你想用更友好的界面可以安装 text-generation-webui具体命令如下 git clone https://github.com/oobabooga/text-generation-webui cd text-generation-webui pip install -r requirements.txt python server.py --model deepseek-r1:32b 然后打开浏览器访问 http://localhost:7860 进行交互。 6. 结语 通过 Ollama 部署 DeepSeek-R1可以快速在本地运行强大的大模型适用于 AI 研究、代码生成、知识问答等任务。本教程提供的从 安装、运行、优化到 API 调用 的完整流程希望对你有所帮助
http://www.hkea.cn/news/14513868/

相关文章:

  • 晋中住房与城乡建设厅网站最近中文字幕在线mv免费
  • 可以自己做网站卖东西百度电话查询
  • 深圳做电子工厂的网站114物流网站怎么做
  • 自己创建网站403wordpress快速建站
  • 网站建设谈单情景对话互联网 网站建设
  • 提供温州手机网站制作哪家好wordpress分类目录分页显示
  • 定制化网站开发报价磐安住房和城乡建设部网站
  • 北京做erp报价的网站网络规划设计师教程第四版
  • 黄山公司做网站中区网站建设
  • 公司网站域名注册流程txt 发布 wordpress
  • win2003服务器网站管理工具高端网站定做
  • 零食网站色调搭配怎么做珠江网站建设
  • 一般网站用什么技术做的广源建设集团网站
  • 校园网站建设申请企业网站定制开发一条龙全包
  • 做网站如何分工搜索引擎网站使用的排名规则
  • 怎样登录建设互联网站连云港做网站建设
  • 阿里云 iis 多个网站南京网
  • 设计公司网站的主页怎么做深圳有限公司官网
  • 成都市四方建设工程监理有限公司网站svg图片做网站背景
  • 自己做的旅游网站 介绍深圳做生鲜食材的网站叫什么
  • 做网站选择什么相机张雪峰谈广告学就业
  • 郑州网站关键词排名wordpress安装成功后怎么进后台
  • 胶州做淘宝的网站网店推广的作用是什么
  • 建站平台绑定域名兰州网站建设论坛
  • 百度验证网站有什么用如何做网站推广方法
  • 关于我们网站模板中国企业500强标准
  • 做门面商铺比较好的网站提供营销型网站价格
  • 做暖暖小视频网站网站建设班级通讯录
  • 简单的电商网站iis部署网站提示建设中
  • 北京建设银行官方网站银行门户网站建设