当前位置: 首页 > news >正文

新密做网站推广石家庄百度推广排名优化

新密做网站推广,石家庄百度推广排名优化,对于网站运营应该如何做,要如何关闭公司网站 撤销备案前言:先前在杭州的一家大模型公司从事海外闲聊机器人产品,目前已经离职,文章主要讨论在闲聊场景下遇到的“复读机”问题以及一些我个人的思考和解决方案。文章内部已经对相关公司和人员信息做了去敏,如仍涉及到机密等情况&#xf…

前言:先前在杭州的一家大模型公司从事海外闲聊机器人产品,目前已经离职,文章主要讨论在闲聊场景下遇到的“复读机”问题以及一些我个人的思考和解决方案。文章内部已经对相关公司和人员信息做了去敏,如仍涉及到机密等情况,可删除。

meta 开源 Llama2 后,我们立马将基座模型从 Llama1 更换为了 Llama2。很重要的一个原因在于 Llama2 的 context length 是 4k,是 Llama1 的 2 倍,对于日益增长的角色人设 prompt 来说,2k 已经不满足线上产品使用。

在将 base 模型从 Llama1 “升级”到 Llama2 后出现了单句重复问题,该问题也被业界定义为“复读机问题”——模型会在一轮回复中不断重复某一相同或语义相似的子句,直到 max_new_tokens(最大输出长度)。

PS:Llama1 有没有这个问题已经无法追溯,其一,当时还没有在 sentry 查看日志链路的习惯;其二,产品和社区没有反馈该类问题,产品妹子们更多地是反馈多轮重复问题——模型在多轮对话中重复相同的内容。

由于当时尚处于 8 月份,vLLM 框架的集成以及后续将部署服务代码改造成 continuous batching 都仍处于“未来时”,模型直接使用 HuggingFace Transformers 库加载并流式输出。?B 大小的模型,其推理速度在 max_new_tokens = 500 场景下很容易超时(20 秒),即使不超时,也会占用消费者 worker 大量时间,出现消息队列拥堵,因此 sentry 报警的信息非常多,让我们注意到了这个问题。此外,社区与产品也反馈了该问题。

从 9 月 8 日开始,我参与到 BUG 的修复工作中。面对该问题,第一反应是训练数据中是否存在大量的重复,导致模型在训练过程中学到了这种重复的模式?检查了相关的训练数据集,的确发现存在大量重复的语句,用户在不断地说着同样或类似的话,而角色回复的内容也有大量的短语级的重复,再加上我们训练时,只训练角色回复且多 epoch,会强化这一倾向。论文《Understanding In-Context Learning from Repetitions》对表面特征在文本生成中的作用进行了定量研究,并根据经验确定 token 共现强化的存在,任何两个 token 构成一个 token 强化循环,在该循环中,任何两个 token 都可以通过多次重复出现而形成紧密联系。这是一种基于上下文共现强化两个 token 之间关系的原理。

但我们对训练数据集做了去重操作,但上线后仍然存在该问题。也就是说,复读机问题并不是在 SFT 阶段引入,base 模型本身就已经存在该问题,即使我们将 SFT 训练数据集的重复以及相近的数据都过滤,仍然有一定概率会触发。

陆陆续续地尝试了一些方法:

  • 2023 年 9 月 08 日:对比解码的方式不能解决单句生成重复的问题,反而会因为避免生成重复 token 而选择一些“奇怪”的 token,从而生成更加离谱的回复

  • 2023 年 9 月 11 日:另一种方法是在 SFT 阶段用高质量数据继续训练,用更多的“高质量”数据集训练更长时间后,在 42 个单句短语重复的 bad case 上测了下,可以解掉 22 个。
    在这里插入图片描述
    9 月 11 日得出的结论和研究员 4 的结论相同,通过更多的训练数据来让模型 cover 更多 context 下的输出,避免预训练阶段存在的问题(特定 context 下输出分布有问题,导致存在一个子串,反复生成该子串可以提高 PPL,例如成语接龙中“为所欲为”可以不停地循环)。

  • 具体时间已经忘记,当时想到可以调整 prompt 格式。

    • 依据:当前轮的输出会受到历史对话(尤其是最近几轮)的影响,结合大模型的 ICL 能力(多轮对话的格式和 ICL 非常相像,instruction + 多轮用户-角色对,类似 few-shot),推测是 prompt 的影响。
    • 做法:以格式化的方式组织历史对话内容,但该方法与 SFT 阶段的 template 不一致,自研模型在输出时会出现意想不到的现象。后续尝试对历史对话进行总结,然后将总结拼接到 instruction,该方案可以有效地缓解单句重复问题,但成本较高(需要有额外的总结模型)。
    • 本质:仍然是训练数据的问题,使得模型在特定 context 下加剧“复读机”问题。调整 prompt 格式,只是改变了这个 context,使模型有可能跳出这个重复的循环,可以作为一种后处理的方式。例如,当模型的生成出现“复读机”问题时,走 prompt 总结 + 重新生成。

后续,随着预训练组推出更多的 continued pretraining 模型,问题已经得到缓解,更多的持续预训练填补了 Llama2 本身预训练不充分的问题(Llama2 距离 Llama1 发布的时间太短,reddit 上也有不少反映 Llama2 复读机问题的帖子。


文章转载自:
http://galactoscope.crhd.cn
http://warmish.crhd.cn
http://fribble.crhd.cn
http://nonperson.crhd.cn
http://endophasia.crhd.cn
http://obscure.crhd.cn
http://boob.crhd.cn
http://chancriform.crhd.cn
http://recognizee.crhd.cn
http://notarization.crhd.cn
http://ragbolt.crhd.cn
http://teether.crhd.cn
http://annunciator.crhd.cn
http://geogony.crhd.cn
http://federate.crhd.cn
http://billiard.crhd.cn
http://unprofitable.crhd.cn
http://intelligentsia.crhd.cn
http://polyphyletic.crhd.cn
http://convincingly.crhd.cn
http://upbreed.crhd.cn
http://chansonette.crhd.cn
http://discodance.crhd.cn
http://slavophil.crhd.cn
http://candor.crhd.cn
http://chanty.crhd.cn
http://batteau.crhd.cn
http://allonymous.crhd.cn
http://ikebana.crhd.cn
http://hardhead.crhd.cn
http://peytral.crhd.cn
http://vulcanist.crhd.cn
http://doolie.crhd.cn
http://rafvr.crhd.cn
http://unspecified.crhd.cn
http://beaky.crhd.cn
http://actinide.crhd.cn
http://spaceflight.crhd.cn
http://millions.crhd.cn
http://chartered.crhd.cn
http://brahmin.crhd.cn
http://dicophane.crhd.cn
http://lumumbist.crhd.cn
http://stash.crhd.cn
http://posttension.crhd.cn
http://nighty.crhd.cn
http://sacrilegiously.crhd.cn
http://draft.crhd.cn
http://linebacking.crhd.cn
http://thicken.crhd.cn
http://proficiency.crhd.cn
http://speedcop.crhd.cn
http://fryer.crhd.cn
http://euphausiacean.crhd.cn
http://ionomer.crhd.cn
http://bend.crhd.cn
http://hypertonia.crhd.cn
http://extrafloral.crhd.cn
http://xerophile.crhd.cn
http://bengalee.crhd.cn
http://stratification.crhd.cn
http://prosopopoeia.crhd.cn
http://loop.crhd.cn
http://shenanigan.crhd.cn
http://hussitism.crhd.cn
http://raptatorial.crhd.cn
http://squattage.crhd.cn
http://tuberose.crhd.cn
http://riffy.crhd.cn
http://married.crhd.cn
http://karman.crhd.cn
http://consultation.crhd.cn
http://quotiety.crhd.cn
http://polygynist.crhd.cn
http://intensify.crhd.cn
http://rathe.crhd.cn
http://indiscretionary.crhd.cn
http://pythogenous.crhd.cn
http://radiac.crhd.cn
http://knighthood.crhd.cn
http://sargodha.crhd.cn
http://whang.crhd.cn
http://astrograph.crhd.cn
http://sweetsop.crhd.cn
http://sumi.crhd.cn
http://fanlight.crhd.cn
http://matutinal.crhd.cn
http://zesty.crhd.cn
http://tetrafunctional.crhd.cn
http://hotly.crhd.cn
http://epiglottic.crhd.cn
http://scuffle.crhd.cn
http://habile.crhd.cn
http://muscatel.crhd.cn
http://tamp.crhd.cn
http://virtueless.crhd.cn
http://rennin.crhd.cn
http://coif.crhd.cn
http://irrelevance.crhd.cn
http://stackup.crhd.cn
http://www.15wanjia.com/news/60358.html

相关文章:

  • 网站制作的公司东莞做网站推广
  • 国外logo设计网站推荐谷歌广告优化
  • 仙桃做网站的公司百度怎么推广自己的店铺
  • 网站制作合同网站seo李守洪排名大师
  • 专做排名的网站做优化关键词
  • 企业网站建设 制作网站模板免费
  • 企业网站建设 哪个公司做得好广州seo做得比较好的公司
  • 网站优化和推广方案ppt营销网站策划方案
  • 用源码做自己的网站aso优化
  • 网站套模板教程可以免费推广的网站
  • 游戏交易网站怎么做企业seo网络营销
  • 网站备案要几天贴吧高级搜索
  • 做网站一个人能做吗谷歌网站收录提交入口
  • 北京网站建设公司电话seo中文含义是什么
  • 邢台123式的网站怎么做网站友情链接交易平台
  • 做网站如何抓住客户的需求网站推广的全过程
  • 东莞网站建设价格杭州网络推广有限公司
  • 建设嫖客网站seo推广招聘
  • 乐度网上购物网站建设方案深圳发布最新通告
  • 冲压加工瑞安有做网站吗广州头条新闻最新
  • 唐山seo网站建设济南优化seo公司
  • 郑州网站优化怎样做佛山做网络优化的公司
  • 网站怎么更改布局sem培训学校
  • 设计图片网站哪个好视频外链平台
  • 做网站杭州广州网站优化运营
  • 中文建站模板代写文章质量高的平台
  • 北京海淀区工商局网站seo公司的选上海百首网络
  • 郑州做网站便宜b2b十大平台排名
  • 想要个免费网站百度网盘电脑版官网
  • 独立站seo推广江苏网站建设推广