当前位置: 首页 > news >正文

wap 网站源码WordPress和哪个好用

wap 网站源码,WordPress和哪个好用,网站制作合同书,tp做网站签到功能文章目录 关于 open-instruct设置训练微调偏好调整RLVR 污染检查开发中仓库结构 致谢 关于 open-instruct github : https://github.com/allenai/open-instruct 这个仓库是我们对在公共数据集上对流行的预训练语言模型进行指令微调的开放努力。我们发布这个仓库#xff0c;并… 文章目录 关于 open-instruct设置训练微调偏好调整RLVR 污染检查开发中仓库结构 致谢 关于 open-instruct github : https://github.com/allenai/open-instruct 这个仓库是我们对在公共数据集上对流行的预训练语言模型进行指令微调的开放努力。我们发布这个仓库并将持续更新它包括 使用最新技术和指令数据集统一格式微调语言模型的代码。在一系列基准上运行标准评估的代码旨在针对这些语言模型的多种能力。我们在探索中构建的检查点或其他有用的工件。 请参阅我们的第一篇论文 How Far Can Camels Go? Exploring the State of Instruction Tuning on Open Resources 关于这个项目背后的更多想法以及我们的初步发现请参阅我们的第二篇论文。 Camels in a Changing Climate: Enhancing LM Adaptation with Tulu 2 关于使用Llama-2模型和直接偏好优化的结果。我们仍在开发更多模型。有关涉及PPO和DPO的更近期的结果请参阅我们的第三篇论文 Unpacking DPO and PPO: Disentangling Best Practices for Learning from Preference Feedback 设置 我们的设置大部分遵循我们的 Dockerfile , 使用 Python 3.10。注意Open Instruct 是一个研究代码库不保证向后兼容性。 我们提供两种安装策略 本地安装这是推荐安装 Open Instruct 的方式。您可以通过运行以下命令安装依赖项 pip install --upgrade pip setuptools70.0.0 wheel # TODO, unpin setuptools when this issue in flash attention is resolved pip install torch2.4.0 torchvision0.19.0 torchaudio2.4.0 --index-url https://download.pytorch.org/whl/cu121 pip install packaging pip install flash-attn2.6.3 --no-build-isolation pip install -r requirements.txt python -m nltk.downloader punkt pip install -e .Docker 安装: 您也可以使用 Dockerfile 来构建 Docker 镜像。您可以使用以下命令来构建镜像 docker build --build-arg CUDA12.1.0 --build-arg TARGETcudnn8-devel --build-arg DISTubuntu20.04 . -t open_instruct_dev # if you are interally at AI2, you can create an image like this: beaker image delete $(whoami)/open_instruct_dev beaker image create open_instruct_dev -n open_instruct_dev -w ai2/$(whoami)如果您在 AI2 内部您可以使用我们始终最新的自动构建镜像来启动实验nathanl/open_instruct_auto。 训练 设置好环境后您就可以开始一些实验了。我们在下面提供了一些示例。要了解有关如何重现Tulu 3模型的更多信息请参阅Tulu 3自述文件。Tulu 1和Tulu 2的说明和文档在Tulu 1和2自述文件中。 微调 您可以使用以下命令开始 # quick debugging run using 1 GPU sh scripts/finetune_with_accelerate_config.sh 1 configs/train_configs/sft/mini.yaml # train an 8B tulu3 model using 8 GPU sh scripts/finetune_with_accelerate_config.sh 8 configs/train_configs/tulu3/tulu3_sft.yaml偏好调整 # quick debugging run using 1 GPU sh scripts/dpo_train_with_accelerate_config.sh 1 configs/train_configs/dpo/mini.yaml # train an 8B tulu3 model using 8 GPU sh scripts/finetune_with_accelerate_config.sh 8 configs/train_configs/tulu3/tulu3_dpo_8b.yamlRLVR # quick debugging run using 2 GPU (1 for inference, 1 for training) # here we are using HuggingFaceTB/SmolLM2-360M-Instruct; its prob not # gonna work, but its easy to test run and print stuff. python open_instruct/ppo_vllm_thread_ray_gtrl.py \--dataset_mixer {ai2-adapt-dev/gsm8k_math_ifeval_ground_truth_mixed: 1.0} \--dataset_train_splits train \--dataset_eval_mixer {ai2-adapt-dev/gsm8k_math_ground_truth: 1.0} \--dataset_eval_splits test \--max_token_length 2048 \--max_prompt_token_length 2048 \--response_length 2048 \--model_name_or_path HuggingFaceTB/SmolLM2-360M-Instruct \--reward_model_path HuggingFaceTB/SmolLM2-360M-Instruct \--non_stop_penalty \--stop_token eos \--temperature 1.0 \--ground_truths_key ground_truth \--chat_template tulu \--sft_messages_key messages \--learning_rate 3e-7 \--total_episodes 10000 \--penalty_reward_value -10.0 \--deepspeed_stage 3 \--per_device_train_batch_size 2 \--local_rollout_forward_batch_size 2 \--local_mini_batch_size 32 \--local_rollout_batch_size 32 \--num_epochs 1 \--actor_num_gpus_per_node 1 \--vllm_tensor_parallel_size 1 \--beta 0.05 \--apply_verifiable_reward true \--output_dir output/rlvr_1b \--seed 3 \--num_evals 3 \--save_freq 100 \--reward_model_multiplier 0.0 \--gradient_checkpointing \--with_tracking# train an 8B tulu3 model using 8 GPU (1 for inference, 7 for training) python open_instruct/ppo_vllm_thread_ray_gtrl.py \--dataset_mixer {ai2-adapt-dev/gsm8k_math_ifeval_ground_truth_mixed: 1.0} \--dataset_train_splits train \--dataset_eval_mixer {ai2-adapt-dev/gsm8k_math_ground_truth: 1.0} \--dataset_eval_splits test \--max_token_length 2048 \--max_prompt_token_length 2048 \--response_length 2048 \--model_name_or_path allenai/Llama-3.1-Tulu-3-8B-DPO \--reward_model_path allenai/Llama-3.1-Tulu-3-8B-RM \--non_stop_penalty \--stop_token eos \--temperature 1.0 \--ground_truths_key ground_truth \--chat_template tulu \--sft_messages_key messages \--learning_rate 3e-7 \--total_episodes 10000000 \--penalty_reward_value -10.0 \--deepspeed_stage 3 \--per_device_train_batch_size 2 \--local_rollout_forward_batch_size 2 \--local_mini_batch_size 32 \--local_rollout_batch_size 32 \--actor_num_gpus_per_node 7 \--vllm_tensor_parallel_size 1 \--beta 0.05 \--apply_verifiable_reward true \--output_dir output/rlvr_8b \--seed 3 \--num_evals 3 \--save_freq 100 \--reward_model_multiplier 0.0 \--gradient_checkpointing \--with_tracking污染检查 我们发布了用于测量指令调整数据集和评估数据集之间重叠的脚本./decontamination。有关更多详细信息请参阅自述文件。 开发中 当向此仓库提交PR时我们使用以下方式检查open_instruct/中的核心代码样式 make style make quality仓库结构 ├── assets/ - Images, licenses, etc. ├── configs/ | ├── beaker_configs/ - AI2 Beaker configs | ├── ds_configs/ - DeepSpeed configs | └── train_configs/ - Training configs ├── decontamination/ - Scripts for measuring train-eval overlap ├── eval/ - Evaluation suite for fine-tuned models ├── human_eval/ - Human evaluation interface (not maintained) ├── open_instruct/ - Source code (flat) ├── quantize/ - Scripts for quantization ├── scripts/ - Core training and evaluation scripts └── Dockerfile - Dockerfile致谢 Open Instruct 是一个受益于许多开源项目和库的项目。我们特别感谢以下项目 HuggingFace Transformers : 我们为微调脚本适配了 Hugging Face 的 Trainer。HuggingFace TRL 和 eric-mitchell/direct-preference-optimization : 我们的偏好调整代码改编自 TRL 和 Eric Mitchell 的 DPO 代码。 OpenAI 的 lm-human-preferences, summarize-from-feedback, 和vwxyzjn/summarize_from_feedback_details : 我们的核心PPO代码是从OpenAI的原始RLHF代码改编而来。 Huang et al (2024)s reproduction work 关于OpenAI的基于反馈的总结工作的内容。OpenRLHF : 我们将 OpenRLHF 的 Ray vLLM 分布式代码进行了适配以扩展 PPO RLVR 训练至 70B 规模。
http://www.hkea.cn/news/14288434/

相关文章:

  • 绘本借阅网站开发湛江网站定制
  • 做网站常用的背景图像短视频优化
  • 网站制作体会淮北市住房和城乡建设局网站
  • 怎样在手机上做动漫视频网站做企业网站需要人维护么
  • 积分交易网站开发wordpress内页长尾词排名
  • 建设局网站打不开是什么原因网站建设费用明细
  • 通付盾 公司网站建设濮阳建站公司流程
  • 昆明建设咨询监理有限公司网站photoshopcc
  • 网站建设入什么费用wordpress 分享 微信二维码
  • 南山商城网站建设哪家便宜太原最新新闻消息
  • 网站建实例优化网哪个牌子好
  • 怎么用vs2008做网站wordpress固定链接改不回来
  • 安徽 电子政务网站定制网站优化公司认准乐云seo
  • 做营销网站推广网站维护与排名
  • 网站开发相关会议国内免费制作网页的网站
  • 企业网站内容是什么上海哪里网站备案
  • 什么网站比较少人做免费电子商务网站源码
  • 建企业网站教程网页加速器ios
  • 如何做情趣网站盘锦建设小学网站
  • 网站建设教学方法探究相关搜索优化软件
  • 微信公众号授权给网站网站访问慢原因
  • 网站怎么做展现量友情链接交换软件
  • 做网站在哪里泰安市最大的网络公司
  • 帝国行业网站模板没有做等保的网站不能上线对吗
  • 有哪些做品牌特卖的网站公司简介模板设计图片
  • 外贸响应式网站茂名网站建设技术托管
  • 影响网站排名的因素 权重wordpress10万数据多大
  • 红谷滩园林建设集团网站济南房产信息网站官网
  • 石家庄万达网站制作敬请期待换个说法
  • 淘宝网站是怎么做的吗建立网站需要多少钱费用