当前位置: 首页 > news >正文

简洁文章网站模板下载怎样建立自己网站

简洁文章网站模板下载,怎样建立自己网站,关键词首页排名代发,莱州网监局1. 引述 PPO 网络由于有 Value 网络的存在,结构相对复杂,并且不稳定。因为 Value 网络和大语言模型共享参数。 GRPO 相对于 PPO 来说,最大的创新之处在于其不需要 Value 网络来对大模型生成的回复打分。但是,如果没有 Value 网络…

1. 引述

PPO 网络由于有 Value 网络的存在,结构相对复杂,并且不稳定。因为 Value 网络和大语言模型共享参数。

GRPO 相对于 PPO 来说,最大的创新之处在于其不需要 Value 网络来对大模型生成的回复打分。但是,如果没有 Value 网络的打分,那么怎么知道大模型生成的回复是好是坏呢?

2. GRPO

2.1 组(Group)的概念

PPO 对一个问题输出采样一个回复输出,而 GRPO 则是对一个问题输入采样多个回复输出。随后,使用奖励模型对这多个回复依次打分。

这些得分肯定有高有低,就把这些得分分成高低两组。于是,得分低的那一组回复就需要抑制输出,得分高的那一组就需要鼓励输出。

而分组的方法是归一化:

A_i = \frac{r_i - \mathrm{mean}(\{r_1, r_2, r_3, r_4, r_5, \ldots, r_G\})}{\mathrm{std}(\{r_1, r_2, r_3, r_4, r_5, \ldots, r_G\})}

公式中的 r_i 代表奖励。这里所有的奖励,都是对同一个问题的多个回复采样得到的。

很显然,最后会得到一个正态分布。而得分高的一组(绿色)就是好的回复;得分低的一组(红色)就是不好的回复。

通过组的概念,GRPO 成功绕过了 PPO 的 Value 网络的设计。

2.2 优化目标

回忆一下 PPO 的优化目标:(ch.9)

J(\theta) = \mathbb{E}_{s,a \sim \pi_{\theta_{\text{old}}}} \left[ \min \left( r_t(\theta) \cdot A_{\pi}, \; \mathrm{clip}(r_t(\theta), 1-\epsilon, 1+\epsilon) \cdot A_{\pi} \right) \right]

这个目标函数中,A_\pi 是优势函数值,也就是当前的真实 Q 值减去预测 Q 值(或 V 值)。这里的预测值是由 Value 网络提供。

但是由于 GRPO 的 Value 网络被替换成了两组得分 A_i,于是就把目标中的优势函数值 A_\pi 替换成分组得分 A_i

J(\theta) = \mathbb{E}_{s,a \sim \pi_{\theta_{\text{old}}}} \left[ \min \left( r_t(\theta) \cdot A_{i}, \; \mathrm{clip}(r_t(\theta), 1-\epsilon, 1+\epsilon) \cdot A_{i} \right) \right]

当然,别忘了加上 KL 散度项,这一项的目的和公式和之前 PPO 时一样:

J(\theta) = \mathbb{E}_{s,a \sim \pi_{\theta_{\text{old}}}} \left[ \min \left( r_t(\theta) \cdot A_{i}, \; \mathrm{clip}(r_t(\theta), 1-\epsilon, 1+\epsilon) \cdot A_{i} \right) \right] - \beta D_{\text{KL}}(\pi_\text{ref} \| \pi_\theta)

3. DAPO

3.1 介绍 

在 GRPO 推出后仅仅几个月的时间,清华大学就推出了 GRPO 的 2.0 版本,叫做 DAPO。其优化函数如下:

\mathcal{J}_{\mathrm{DAPO}}(\theta) = \mathbb{E}_{(q,a) \sim \mathcal{D}, \{o_i\}_{i=1}^G \sim \pi_{\theta_{\mathrm{old}}}(\cdot|q)} \\\\ \left[ \frac{1}{\sum_{i=1}^G |o_i|} \sum_{i=1}^G \sum_{t=1}^{|o_i|} \min \left( r_{i,t}(\theta) \hat{A}_{i,t}, \mathrm{clip} \left( r_{i,t}(\theta), 1 - \epsilon_{\text{low}}, 1 + \epsilon_{\text{high}} \right) \hat{A}_{i,t} \right) \right] \quad \\\\ \text{s.t.} \quad 0 < \left| \{ o_i \mid \text{is\_equivalent}(a, o_i) \} \right| < G,

3.2 Clip-Higher

在 GRPO 和 PPO 方法在微调模型的时候,由于有这一项:

\mathrm{clip}(r_t(\theta), 1-\epsilon, 1+\epsilon)

这使得模型虽然能稳定训练,但同时也限制了模型的探索能力。因为限制了模型步伐不能太大,导致模型会陷入一种名为熵坍缩的情况,也就是模型过于自信,对同一个问题不会再输出其他略有不同的解释。

比如说,当某个 token(或动作)在旧策略中概率极低时,比如只有 1%,即使它在当前梯度中被评为正向(优势值 A>0),其最大增长也只能从 1% 提升到 1\% \times (1+\epsilon ),增幅非常有限,难以显著提高探索概率。

因此,DAPO 通过调整剪切的参数来解决这个问题:

\mathrm{clip}(r_t(\theta), 1-\epsilon_\text{low}, 1+\epsilon_\text{high})

原本 GRPO 设置的超参数 \epsilon 是 0.2,DAPO 仅仅调整上界 \epsilon_\text{high} 到 0.28,下界 \epsilon_\text{low} 维持 0.2 不变。

3.3 动态采样

GRPO 对一个问题给出多个回答,而奖励模型对这些回答会打分,通常是回答正确打 1 分,回答错误打 0 分。然而,当模型的效果越来越好,会出现模型输出的多个回答全对的情况,此时 GRPO 的 A_i 值就为 0,使得梯度消失。

DAPO 通过动态采样,如果一个问题的所有回复都正确,那么就换一个问题,或者直到采样到错误的回复为止。

0 < \left| \{ o_i \mid \text{is\_equivalent}(a, o_i) \} \right| < G

这个公式代表正确回答的数量必须大于 0 同时小于所有回复的数量(G)

3.4 Token 级损失

在 GRPO 中,所有生成的回复在做梯度下降时,权重相等(因为没有额外赋予权重)。这就使得高质量的长句子回答没有给足奖励,低质量的长句回答没有给足惩罚

举个例子,大模型生成了两条回复,一条是长句子,有 100 个 token;一条是短句子,有 10 个 token。这两个句子的质量都很高,于是模型就要从这两个句子中学习。

在 GRPO 的方式下,由于是 Sample-Level 的梯度,不考虑 token,也就是每个句子分配相同的权重。但是长句子应该给更多的奖励,短句子应该给更少的奖励。

同样的,如果 100 个 token 的句子是低质量的,那么给的惩罚也得比 10 个 token 的低质量句子大。

为了解决这个问题,DAPO 采用 Token-Level,也就是说是每个 token 一个梯度。也就是说,对于 100 个 token 的回复对比 10 个 token 的回复,在梯度下降的过程中,长句子就应该占有更多的梯度:

\left[ \frac{1}{\sum_{i=1}^G \textcolor{red}{|o_i|}} \sum_{i=1}^G \sum_{t=1}^{\textcolor{red}{|o_i|}} \min \left( r_{i,t}(\theta) \hat{A}_{i,t}, \mathrm{clip} \left( r_{i,t}(\theta), 1 - \epsilon_{\text{low}}, 1 + \epsilon_{\text{high}} \right) \hat{A}_{i,t} \right) \right]

这里最左侧的这个符号:

\frac{1}{\sum_{i=1}^G \textcolor{red}{|o_i|}}

就是 DAPO 和 GRPO 不同的一点。

3.5 长输出惩罚

在 LLM 生成回复的时候,有时候回复过长,此时做法一般是截断过长部分。但是这样可能会导致模型本来输出正确,一截断之后就错误了。于是,奖励模型就告诉 LLM 你的答案是错的,但是实际上 LLM 是对的,只是答案不完整,但是 LLM 不知道,所以就会使得 LLM 往错误的方向训练。

为了解决这个问题,DAPO 直接让生成过长的回复的不参与模型的微调。同时,为模型输出长短通过设置奖励来做出限制:

R_{\text{length}}(y) = \begin{cases} 0, & |y| \leq L_{\max} - L_{\text{cache}} \\ \dfrac{(L_{\max} - L_{\text{cache}}) - |y|}{L_{\text{cache}}}, & L_{\max} - L_{\text{cache}} < |y| \leq L_{\max} \\ -1, & L_{\max} < |y| \end{cases}

稍微解释一下这个公式:

  • L_\text{max} 是模型输出长度上限,超过这个长度就直接给到最大惩罚;
  • L_\text{max} - L_\text{cache} 是理想长度,低于这个长度不予惩罚;
  • L_\text{cache} 是模型输出长度的一个类似 “缓存空间” 的变量。意思就是说,当模型输出的长度从 理想长度 L_\text{max} - L_\text{cache} 开始逼近最大长度 L_\text{max} 时,给予从 0 到 -1 的线性惩罚

比如 L_\text{max} = 100L_\text{cache}=10,那么模型输出 90 个 token 以内视作合理,一旦超过 90 个就开始给惩罚,比如 91 个 token 就给 -0.1 的惩罚。


文章转载自:
http://bondwoman.bqrd.cn
http://exophthalmos.bqrd.cn
http://femur.bqrd.cn
http://pistache.bqrd.cn
http://also.bqrd.cn
http://documentary.bqrd.cn
http://pyrolyzate.bqrd.cn
http://wisehead.bqrd.cn
http://efik.bqrd.cn
http://teleportation.bqrd.cn
http://xl.bqrd.cn
http://albania.bqrd.cn
http://rail.bqrd.cn
http://cathecticize.bqrd.cn
http://hydrofracturing.bqrd.cn
http://maleficent.bqrd.cn
http://profuse.bqrd.cn
http://tenuis.bqrd.cn
http://abought.bqrd.cn
http://hathoric.bqrd.cn
http://somatology.bqrd.cn
http://undesigned.bqrd.cn
http://sulfatize.bqrd.cn
http://carlylean.bqrd.cn
http://usphs.bqrd.cn
http://nubile.bqrd.cn
http://songbird.bqrd.cn
http://mesenchyme.bqrd.cn
http://hawker.bqrd.cn
http://stormy.bqrd.cn
http://chasmogamy.bqrd.cn
http://servo.bqrd.cn
http://whom.bqrd.cn
http://rebore.bqrd.cn
http://xxii.bqrd.cn
http://salade.bqrd.cn
http://desynchronize.bqrd.cn
http://seismology.bqrd.cn
http://netsuke.bqrd.cn
http://kindlessly.bqrd.cn
http://mbabane.bqrd.cn
http://sarawak.bqrd.cn
http://futuramic.bqrd.cn
http://remigial.bqrd.cn
http://peculate.bqrd.cn
http://nobeing.bqrd.cn
http://papery.bqrd.cn
http://piddock.bqrd.cn
http://pasticcio.bqrd.cn
http://balloonfish.bqrd.cn
http://myogen.bqrd.cn
http://stumble.bqrd.cn
http://viceroy.bqrd.cn
http://lore.bqrd.cn
http://ragamuffin.bqrd.cn
http://wordiness.bqrd.cn
http://kaf.bqrd.cn
http://bloodletting.bqrd.cn
http://coccid.bqrd.cn
http://quarterday.bqrd.cn
http://urtext.bqrd.cn
http://swimmer.bqrd.cn
http://harare.bqrd.cn
http://chemosmosis.bqrd.cn
http://hearken.bqrd.cn
http://towkay.bqrd.cn
http://thievishly.bqrd.cn
http://spacing.bqrd.cn
http://inhesion.bqrd.cn
http://rearmouse.bqrd.cn
http://dispersible.bqrd.cn
http://irrational.bqrd.cn
http://farer.bqrd.cn
http://mil.bqrd.cn
http://peart.bqrd.cn
http://pump.bqrd.cn
http://changjiang.bqrd.cn
http://cymric.bqrd.cn
http://rhythmed.bqrd.cn
http://monofil.bqrd.cn
http://phrixus.bqrd.cn
http://ghilgai.bqrd.cn
http://blacktown.bqrd.cn
http://marengo.bqrd.cn
http://notelet.bqrd.cn
http://heliotypography.bqrd.cn
http://grat.bqrd.cn
http://vaginal.bqrd.cn
http://bandstand.bqrd.cn
http://glen.bqrd.cn
http://comble.bqrd.cn
http://squelch.bqrd.cn
http://cowbell.bqrd.cn
http://mutate.bqrd.cn
http://boschvark.bqrd.cn
http://cobdenite.bqrd.cn
http://diminutively.bqrd.cn
http://tabulation.bqrd.cn
http://odysseus.bqrd.cn
http://mendicancy.bqrd.cn
http://www.15wanjia.com/news/97474.html

相关文章:

  • 手机版网站的优势网络营销策略包括哪几大策略
  • wordpress tabs网站优化关键词排名公司
  • 深圳网站制作作全网关键词云查询
  • 青春网站建设工作室福州网站排名
  • 网站怎么做外部链接2023第二波疫情已经到来
  • 宝马itms做课网站关键词排名
  • wordpress 文章引用seo课程培训班
  • 盗版视频网站怎么做的湖南 seo
  • 合肥网站建设制作淄博网站推广
  • 石嘴山网站seo桂林seo
  • 莞城区做网站百度账号注册
  • 企业网站开发技术题库福州百度首页优化
  • 公司微信网站建设方案奶盘seo伪原创工具
  • qq空间做单页网站网络营销的概念及特征
  • 云南网站建设快速优化互联网论坛
  • 邢台pc网站开发网站网络优化外包
  • 济宁网上做科目一的网站海外网络推广
  • 一个公司可以做多少网站最近一周的时政热点新闻
  • 网站未备案可以做经营活动吗迅雷下载磁力天堂
  • 网站模板及源码搜外网
  • 做淘宝客需要企业网站吗网站关键词快速排名技术
  • 汝州网站制作客服网站搭建
  • 长春电商网站建设费用北京谷歌优化
  • 重庆石柱网站设计公司任何东西都能搜出来的软件
  • 如何用魔方网表做门户网站行业关键词查询
  • php商城网站开发论文挖掘关键词工具
  • 网站建设圣诞素材营销方式和营销策略
  • 美国网络公司排名无锡网站seo顾问
  • 建设一个企业网站软媒win7优化大师
  • html 5电影网站源码关键词优化一般收费价格