当前位置: 首页 > news >正文

做特产网站最优化方法

做特产网站,最优化方法,wordpress云建站教程,网站需要哪些手续目录 1. CLIP 2. ALBEF 3. BLIP 4. BLIP2 参考文献 (2023年)视觉语言的多模态大模型的目前主流方法是:借助预训练好的LLM和图像编码器,用一个图文特征对齐模块来连接,从而让语言模型理解图像特征并进行深层次的问…

目录

1. CLIP

2. ALBEF

3. BLIP

4. BLIP2

参考文献


        (2023年)视觉+语言的多模态大模型的目前主流方法是:借助预训练好的LLM和图像编码器,用一个图文特征对齐模块来连接,从而让语言模型理解图像特征并进行深层次的问答推理。

        这样可以利用已有的大量单模态训练数据训练得到的单模态模型,减少对于高质量图文对数据的依赖,并通过特征对齐、指令微调等方式打通两个模态的表征。下图来自其他 up 的概括内容,来自:https://zhuanlan.zhihu.com/p/653902791

        对于CLIP部分公式均参照该链接,仅了解损失函数。

图 基础MLLM的架构整理

1. CLIP

        分别对图像、文本进行特征提取,两部分的backbone可以分别采用Resnet系列模型/VIT系列模型、BERT模型。特征提取后,直接相乘计算余弦相似度,然后采用对比损失(info-nce-loss)。

训练损失

  • 交叉熵代价损失(cross entropy):基础有监督学习分类损失函数。

图 n个类别多分类的交叉熵代价函数

  • NCE(noise contrastive estimation):相比于交叉熵损失,这里将多问题转化为二分类问题,即正样本和噪声样本,目标学习正样本和噪声样本之间的差异。

图 噪声对比

  • info-NCE:NCE的变体,将噪声样本按多类别看待。存在一个temp的温度系数。

图 info-NCE loss

2. ALBEF

        动机:该项工作之前的视觉预训练模型一般采用Object Detector的方式,这种Detector能够提取图像上的目标或边界信息。然而这种训练方式有如下几点限制:

  • 图像特征和文本编码token分别处于各子的特征空间,这使得多模态关联性挖掘存在巨大挑战;
  • 这种训练方式会产生额外的解释开销和计算开销;
  • 对于物体目标含量低的样本,模型性能受限于Detector的检测精度;
  • 图像文本样本数据一般来源于网络,具有严重的噪声影响,会导致模型性能降级。

        ALBEF模型架构:如图所示,ALBEF模型架构分为image encoder 、text encoder 和多模态编码器,其中左半部分类似Transformer,text encoder将12层分为两部分,前6层作为text encoder,后6层作为视觉特征和文本特征的融合。由于视觉和文本的编码都包含[CLS]标签,这种标签因自注意力机制的影响被认为包含全局信息,所以可以将视觉和文本的全局信息进行 Image-Text Contrastive Loss。

图 ALBEF架构图

        如图ITM部分,该部分称为图像文本匹配(Image-Text matching),该部分利用的负样本采用 hard negatives 的方式进行生成,即通过ITC(iamge-text Contrastive)计算出的次分类结果,该结果能够作为模型难以理解的样本,进而计算损失。

        除此之外,由于动机中描述的网络图文样本对的噪声影响,ALBEF设计一个Momentum Model(动量模型)解决上述问题。简要描述该组件的作用,即类似知识蒸馏方法,拷贝出原始模型的动量版本,通过动量模型对原始模型规约,加深原始模型和动量模型间的图文对匹配程度,进而消除原始样本数据中的噪声干扰。

3. BLIP

        动机:从模型的角度,当前预训练模型的任务涵盖范围受限。例如,基于Encoder的模型无法做生成任务,而基于Encoder-Decoder的模型无法做检索任务,不能更充分的理解任务信息。从数据的角度,网络图文对具有严重的数据噪声。

        BLIP模型架构:BLIP全称Bootstrapped Language-Image Pre-training,该模型包括三个下游任务:图像文本对比学习、图像文本匹配和语言建模(LM,该任务类似GPT,给定段落前一段话,预测后一段;而不是BERT那种完型填空的方式)。

图 BLIT模型架构

  • Bootstrapped机制:采用一种迭代的、自我改进的学习过程来提升模型性能,该机制有助于提高模型在跨模态任务中的对齐和理解能力。(1)初始模型训练阶段:首先使用大量的单模态数据(如图像/文本)对文本编码器和图像编码器进行预训练(如图中的 Image Encoder 和 Text Encoder)。然后利用多模态数据,即图文对数据,对初始模型进行训练;(2)迭代更新阶段:采用Captioning and Filtering的方式,从网页噪声图像文本对中学习,训练BLIP。
  • image-text contrastive(图像文本对比):和ALBEF类似,利用[CLS]信息进行对比学习。
  • Image-grounded Text Encoder(图像文本匹配编码器):采用一种 Cross Attention 模块,将图像信息融入文本编码过程中,增强文本的上下文表示,进而理解图像的相关描述。
  • Image-grounded Text Decoder(图像关联文本解码器):将原来的 Bi Self-Attention 替换为 Causal Self-Attention(用于预测下一个token),该解码器用于文本生成或多模态推理任务。
  1. soft lables:是指标签值在[0,1]之间的概率值,而不是离散的0或1,反映样本属于某一个类的置信度。有助于平滑标签分布,提高模型的泛化能力,减少过拟合。
  2. Hard Negative Mining Strategy:在训练过程中,专门选择那些模型难以区分的负样本,以增强模型的判别能力。

如何消除网络样本噪声的影响:BLIP采用 Filter-Captioner 的方式,如图所示,通过生成+过滤的方式生成更匹配图像的Caption,进而完善样本集。具体而言,对于给定的训练集
$D$,包含网络文本 T_w、人工正确标注文本 T_h,由于前文有 ITC、ITM 和 LM 损失,因此在部分利用这些指标训练 Filter(grounded Encoder)和 Captioner(grounded Decoder),Captioner会生成文本数据 T_s,将 T_w 和 T_s 交由 Filter 微调更加匹配图像的文本信息,最终获得信息匹配程度更紧密的样本集。

图 Filter-Captioner机制

4. BLIP2

动机:回顾之前的研究,无论是视觉预训练模型还是语言预训练模型,其规模都是庞大的,这种模型架构会产生巨额开销。

BLIP2架构:BLIP2全称Bootstrapping Language-Image Pre-training with Frozen Image Encoders and Large Language Models,视图将视觉预训练模型和语言预训练模型参数均进行冻结。然而,这会导致视觉特征和文本特征都处于各自的特征空间,存在巨大的 modality gap。因此BLIP2中采用 Q-Former(Query Transformer) 的一种轻量级Transformer技术,该技术用于弥补视觉和语言两种模态的 modality gap,选取最匹配的视觉特征给后续LLM生成文本。

图 BLIP2的模型架构

        Q-Former是一个可学习的组件,学习的参数包括若干queries,这些queries最终从 image encoder中提取固定数量的视觉特征,学习与文本更匹配的视觉特征。

        queries间的彼此交互通过共享自注意力层,和冻结的图像特征交互使用的跨模态注意力机制层,然后queries也能通过共享自注意力层与文本特征进行交互。整个Q-Former由Image Transformer和Text Transformer两个子模块构成,它们共享相同自注意力层。

  • Image Transformer:通过和image encoder交互来提取视觉特征,输入是一系列(文中用的32个*768长度)可学习的 Queries,这些Query通过自注意力层相互交互,并通过交叉注意力层与冻结的图像特征交互,还可以通过共享的自注意力层与文本进行交互;输出的query尺寸是32*768,远小于冻结的图像特征257*1024(ViT-L/14)。
  • Text Transformer:既作为文本编码器也作为文本解码器,它的自注意力层与Image Transformer共享,根据预训练任务,用不同的self-attention masks来控制Query和文本的交互方式。

参考文献

多模态大模型 CLIP, BLIP, BLIP2, LLaVA, miniGPT4, InstructBLIP 系列解读

BLIP2的前世与今生

ALBEF原文

BLIP原文

BLIP2原文


文章转载自:
http://ruttish.mcjp.cn
http://mainboard.mcjp.cn
http://welfarism.mcjp.cn
http://obconical.mcjp.cn
http://nonclaim.mcjp.cn
http://treasurer.mcjp.cn
http://lykewake.mcjp.cn
http://wayside.mcjp.cn
http://similitude.mcjp.cn
http://thowless.mcjp.cn
http://mummer.mcjp.cn
http://delusory.mcjp.cn
http://diadochy.mcjp.cn
http://ovation.mcjp.cn
http://bathless.mcjp.cn
http://diglossic.mcjp.cn
http://spahee.mcjp.cn
http://imbower.mcjp.cn
http://wilily.mcjp.cn
http://probing.mcjp.cn
http://existentialist.mcjp.cn
http://depside.mcjp.cn
http://basketballer.mcjp.cn
http://hexapodic.mcjp.cn
http://quadrennially.mcjp.cn
http://milliradian.mcjp.cn
http://denlture.mcjp.cn
http://transitivize.mcjp.cn
http://begohm.mcjp.cn
http://metrication.mcjp.cn
http://capernaum.mcjp.cn
http://kenya.mcjp.cn
http://departmental.mcjp.cn
http://samel.mcjp.cn
http://box.mcjp.cn
http://allottee.mcjp.cn
http://nyon.mcjp.cn
http://glyceraldehyde.mcjp.cn
http://unromantic.mcjp.cn
http://mistrustful.mcjp.cn
http://rheophobic.mcjp.cn
http://dantonesque.mcjp.cn
http://escudo.mcjp.cn
http://cns.mcjp.cn
http://drawspring.mcjp.cn
http://burial.mcjp.cn
http://servility.mcjp.cn
http://helophyte.mcjp.cn
http://decumulation.mcjp.cn
http://epiphyllous.mcjp.cn
http://bellman.mcjp.cn
http://recessional.mcjp.cn
http://idiopathy.mcjp.cn
http://basil.mcjp.cn
http://cardiorespiratory.mcjp.cn
http://patroness.mcjp.cn
http://fenderboard.mcjp.cn
http://aureomycin.mcjp.cn
http://interpolate.mcjp.cn
http://indigestible.mcjp.cn
http://foredoom.mcjp.cn
http://bicycle.mcjp.cn
http://pedicure.mcjp.cn
http://phonochemistry.mcjp.cn
http://viewpoint.mcjp.cn
http://pawner.mcjp.cn
http://histiocyte.mcjp.cn
http://eon.mcjp.cn
http://aso.mcjp.cn
http://corbiestep.mcjp.cn
http://jehu.mcjp.cn
http://coowner.mcjp.cn
http://cotinga.mcjp.cn
http://samian.mcjp.cn
http://sla.mcjp.cn
http://coleseed.mcjp.cn
http://anuclear.mcjp.cn
http://deodorization.mcjp.cn
http://vdi.mcjp.cn
http://erode.mcjp.cn
http://imprecision.mcjp.cn
http://transshape.mcjp.cn
http://haemolysis.mcjp.cn
http://wbn.mcjp.cn
http://tendril.mcjp.cn
http://empanada.mcjp.cn
http://pickerelweed.mcjp.cn
http://cruellie.mcjp.cn
http://dnb.mcjp.cn
http://autoreflection.mcjp.cn
http://chyack.mcjp.cn
http://trophy.mcjp.cn
http://moesogothic.mcjp.cn
http://hindbrain.mcjp.cn
http://rollock.mcjp.cn
http://resthome.mcjp.cn
http://weaponry.mcjp.cn
http://romaunt.mcjp.cn
http://harass.mcjp.cn
http://stemware.mcjp.cn
http://www.15wanjia.com/news/85559.html

相关文章:

  • 谷歌域名注册seo搜索优化培训
  • 成都网站建设哪儿济南兴田德润怎么联系b站推广入口
  • 网站手机模板和pc模板要分开做网络软文推广平台
  • 网站设计的工具百度人工客服在哪里找
  • 网站开发如何设置视频新手网络推广怎么干
  • 网站开发个人博客百度贴吧免费发布信息
  • 属于门户网站的有湖人今日排名最新
  • 网站源码授权国内免费二级域名建站
  • 适合夜晚直播软件网站怎么优化推广
  • 做网站定制开发的公司网站开发语言
  • 建设防伪网站如何做网络销售平台
  • nginx wordpress多个站点外贸网站推广方法之一
  • 仿牌网站建设如何免费注册网站平台
  • 郑州做网站外包的公司有哪些seo网站推广杭州
  • 如何查网站空间大小站长工具ping
  • 万网域名网站建设最有效的推广方式
  • frontpage做网站怎么样点击进入官方网站
  • 百度下拉框推广网站腾讯疫情实时数据
  • 长沙网页设计培训电话厦门关键词排名优化
  • 如何在公司服务器建个内部 网站网络推广外包联系方式
  • 湖南省博物馆网站建设网站管理
  • 酒店网站建设公司排名淘宝推广平台有哪些
  • 有没有兼职做设计的网站吗谷歌推广优化
  • 百度如何把网站做链接网站老域名跳转到新域名
  • 杭州网站建设制作公司曹操seo博客
  • html5中文网站欣赏网站服务器查询
  • 现在还可以做夺宝网站关键词搜索站长工具
  • 信息化建设包括网站建设百度免费下载
  • 黄岛网站建设服务商家推广平台有哪些
  • 网站建设可用性的五个标准营销型网站建站