当前位置: 首页 > news >正文

net112企业建站系统最好的搜索引擎

net112企业建站系统,最好的搜索引擎,怎么做制作网站的教程,新人做网站不懂设计版面怎么办写在前面 GPT(Generative Pre-trained Transformer)是目前最广泛应用的大语言模型架构之一,其强大的自然语言理解与生成能力背后,是一个庞大而精细的训练流程。本文将从宏观到微观,系统讲解GPT的训练过程,…

写在前面

GPT(Generative Pre-trained Transformer)是目前最广泛应用的大语言模型架构之一,其强大的自然语言理解与生成能力背后,是一个庞大而精细的训练流程。本文将从宏观到微观,系统讲解GPT的训练过程,包括数据收集、预处理、模型设计、训练策略、优化技巧以及后训练阶段(微调、对齐)等环节。

我们将先对 GPT 的训练方案进行一个简述,接着我们将借助 MiniMind 的项目,来完成我们自己的 GPT 的训练。

训练阶段概览

GPT 的训练过程大致分为以下几个阶段:

  • 数据准备(Data Preparation)
  • 预训练(Pretraining)
  • 指令微调(Instruction Tuning)
  • 对齐阶段(Alignment via RLHF 或 DPO)
  • 推理部署(Inference & Serving)

在这里插入图片描述

准备数据

这里我们选择 MiniMind2:104M参数量的,0.1B。
使用数据集如下:
● pretrain_hq
● sft_512
● sft_2048
● dpo

我们对数据进行下载

wget -c 'https://huggingface.co/datasets/jingyaogong/minimind_dataset/resolve/main/dpo.jsonl?download=true'
wget -c 'https://huggingface.co/datasets/jingyaogong/minimind_dataset/resolve/main/sft_2048.jsonl?download=true'
wget -c 'https://huggingface.co/datasets/jingyaogong/minimind_dataset/resolve/main/sft_512.jsonl?download=true'

对应的内容如下:
在这里插入图片描述
下载完毕后如下所示:
在这里插入图片描述

预训练

torchrun --nproc_per_node 2 train_pretrain.py --n_layers 16 --dim 768 --use_wandb

继续双卡训练:
在这里插入图片描述
可以看到 LLM总参数量:104.031 百万,最终为 0.1B 模型。

开始预训练,两张卡,各15GB显存。
在这里插入图片描述

sft_512

训练模型

torchrun --nproc_per_node 2 train_full_sft.py --data_path "./dataset/sft_512.jsonl" --n_layers 16 --dim 768 --use_wandb

开始训练:
在这里插入图片描述
占用情况如下所示:
在这里插入图片描述

测试模型

python eval_model.py --model_mode 1 --n_layers 16 --dim 768

对应的内容如下所示:
在这里插入图片描述

sft_1024

训练模型

训练之前,我们需要将之前的 pretrained 模型备份一下(防止以后弄错了),然后把刚才训练好的模型修改为 pretrained 的名字。
简言之:在刚才sft_512上训练出来的模型上进行sft_1024的训练

mv full_sft_768.pth pretrain_768.pth

当前模型的列表如下所示:
在这里插入图片描述
此时的 pretrain_768.pth 模型就是刚才在 sft_512 上训练出来的

torchrun --nproc_per_node 2 train_full_sft.py --data_path="./dataset/sft_1024.jsonl" --n_layers 16 --dim 768 --use_wandb

我们继续进行训练,这次任务估计要更久了,需要耐心的等待。
在这里插入图片描述

测试模型

python eval_model.py --model_mode 1 --n_layers 16 --dim 768

测试的执行结果如下所示:
在这里插入图片描述

dpo

在大模型训练中,“DPO” 通常指的是 Direct Preference Optimization(直接偏好优化),这是一种新兴的 对齐技术,用于更高效、直接地将大语言模型(LLM)对齐为更符合人类偏好的行为输出方式。它是近年来在 人类反馈强化学习(RLHF) 之后提出的一种新思路。

DPO 是不使用强化学习(如PPO)的方法,直接用“人类偏好对比数据”来优化语言模型的输出行为,使它更贴合用户期望。

大模型对齐,主要解决两个问题:

  • 输出内容可控、有用、无害;
  • 更符合人类用户的喜好或选择。

RLHF 是当前最流行的对齐技术,如 OpenAI 的 InstructGPT 和 ChatGPT 都用了这一方式。但 RLHF 存在如下问题:

  • 实现复杂(需要 reward model、策略优化器等);
  • 训练不稳定;
  • PPO 的超参数难调;
  • 训练代价大。

DPO 的目标:

  • 用一种更简单的方式,实现类似甚至超过 RLHF 的对齐效果。

它解决了什么?

  • 不用再引入复杂的 reward model + PPO;
  • 直接在原始语言模型架构基础上,做最小改动即可实现。

为什么 DPO 有用?

  • ✅ 不需要 reward model;
  • ✅ 不使用强化学习;
  • ✅ 易于实现、可以用常规优化器训练(如 Adam);
  • ✅ 效果与 PPO 相当或更优;
  • ✅ 可直接用于 decoder-only 架构(如 GPT);

训练模型

我们训练完了 sft_1024 的数据,接着进行下面的训练即可:

torchrun --nproc_per_node 2 train_dpo.py --n_layers 16 --dim 768 ----batch_size 4 --use_wandb

这里我们需要控制一下 batch_size 的大小,不然会OOM。
在这里插入图片描述
可以看到调整了 batch_size(代码里默认是8),此时调整为4,GPU也基本是要吃满的状态了:
在这里插入图片描述

http://www.cadmedia.cn/news/14382.html

相关文章:

  • 免费b站在线观看人数在哪里制作一个网站步骤
  • 陇城科技网站建设长沙靠谱seo优化价格
  • 网站建设 教学视频想要导航推广网页怎么做
  • 黑龙江龙采做网站如何国内营销推广渠道
  • 阿里云Ubuntu安装WordPressseo一键优化
  • 网站建设 qq业务网制作百度软件下载中心官方网站
  • 海口网站建设fwlit广州google推广
  • 网站规划建设与管理维护论文一件代发48个货源网站
  • 乌鲁木齐企业网站建设公司做销售最挣钱的10个行业
  • 做网站怎么选云主机廊坊seo排名公司
  • 怎么打开手机app学校seo推广培训班
  • 重庆梁平网站建设公司简阳seo排名优化课程
  • 最权威的做网站的公司哪家好营销型网站制作成都
  • 长沙仿站模板网站建设交换链接的其它叫法是
  • 学校网站 建设 价格2021时事政治热点50条
  • 深圳推广公司哪家最好单页网站怎么优化
  • 美轮美奂的网站建设电脑优化大师官方免费下载
  • 江苏首天建设集团网站企业站seo案例分析
  • 贵州网络公司网站建设数据分析师就业前景
  • 济南建设集团网站网站推广方法大全
  • 运城网站建设公司有多少手机百度旧版本下载
  • 网站运营与管理的对策公司网页怎么做
  • 苏州高端网站建设如何去做网络营销
  • 澳门网站建设公司哪家好外贸网站推广平台
  • 各大网站的名字大全网络营销策划书结构
  • 深圳网站维护页面设计百度关键词排名手机
  • 给别人建网站工作行吗搜索指数
  • WordPress的vieu模板澳门seo推广
  • 高端网站建设方案报价交换友链是什么意思
  • 公司网站建设费维护费会计分录深圳网站建设的公司