当前位置: 首页 > news >正文

手机介绍网站营销是做什么

手机介绍网站,营销是做什么,相亲网站怎么做,宁波网站建设培训Pretraining Language Models with Text-Attributed Heterogeneous Graphs EMNLP 推荐指数:#paper/⭐⭐#​ 贡献: 我们研究了在更复杂的数据结构上预训练LM的问题,即,TAHG。与大多数只能从每个节点的文本描述中学习的PLM不同&…

Pretraining Language Models with Text-Attributed Heterogeneous Graphs

EMNLP

推荐指数:#paper/⭐⭐#​

贡献:

  1. 我们研究了在更复杂的数据结构上预训练LM的问题,即,TAHG。与大多数只能从每个节点的文本描述中学习的PLM不同,我们提出了一个新的预训练框架,使LM能够捕获不同节点之间的拓扑连接。
  2. 作者引入了一个拓扑感知的预训练任务去预测文本图的节点是否在文本图中。这可以使得LM可以利用高阶的信号
  3. 作者设计了一种文本增强策略来丰富无文本节点的语意信息,以缓解文本不平衡问题

异构文本属性图介绍(TAHGs)

G = ( V , E , U , R , X ) \mathcal{G}=(\mathcal{V},\mathcal{E},\mathcal{U},\mathcal{R},\mathcal{X}) G=(V,E,U,R,X),依次分别代表:节点属性,边,节点类型,边类型,节点文本描述。

模型架构

image

第一个模块提取目标节点的上下文,比国内通过联合优化LM和异构图神经网络来预测哪些节点涉及文本图。第二个模块是为了引入节点不平衡的文本描述。值得注意的是,当预训练结束之后,我们只使用PLM在下游任务上测试。

拓扑捕获阶段

这一部分,如上所示,我们的目的是捕获节点之间的一阶和高阶信息。

首先,我们定义context图。(及一个节点的邻域图)。 G u K \mathcal{G}_{u}^{K} GuK代表节点u的K阶内邻居集合。当K大于2,及捕获高阶信息。

Context 图预测(Context Graph Prediction)(GCP)

TAHGs包含多阶邻居信息。和大多数PLM对单个文本进行预训练不同,我们提出了上下文图预测来训练LM捕获丰富的关系信息。

首先,我们得到节点V的表征如下:

H G = f H G N N ( G ) ∈ R ∣ V ∣ × d , H^{\mathcal{G}}=f_{HGNN}\left(\mathcal{G}\right)\in\mathbb{R}^{|\mathcal{V}|\times d}, HG=fHGNN(G)RV×d,其初次输入是通过下面的式子(文本编码)得到的。

f H G N N ( ⋅ ) f_{HGNN}(\cdot) fHGNN()可以表示任何异构图神经网络。

之后,我们编码文本图节点u的描述通过LM:

h L M u = M E A N ( f L M ( X u ) ) ∈ R d , \boldsymbol{h}_{LM}^u=\mathrm{MEAN}(f_{LM}\left(X_u\right))\in\mathbb{R}^d, hLMu=MEAN(fLM(Xu))Rd,

为了捕获节点u的异构性,我们引入了一个映射头在PLM的最后一层。下一步,我们预测节点v是否在context 图中:(这是一个二分类问题)

y ^ u , v = sigmoid ⁡ ( h L M u ⊤ W ϕ ( v ) H v G ) \hat{y}_{u,v}=\operatorname{sigmoid}\left(\boldsymbol{h}_{LM}^{u}{}^{\top}\boldsymbol {W}_{\phi(v)}\boldsymbol{H}_{v}^{\mathcal{G}}\right) y^u,v=sigmoid(hLMuWϕ(v)HvG)

y u , v = 1 y_{u,v}=1 yu,v=1如果 G u K G_u^K GuK包含v,否则为0。

预训练策略

在这个工作中,我们使用BERT以及R-HGCN。

预测上述所有节点的context graph 概率是很困难的( y u , v y_{u,v} yu,v),因此我们使用负样本采样去优化上述公式。为了生成负样本,我们采样k个邻居对于每个跳,负样本从 V ∖ V u K \mathcal{V}\setminus\mathcal{V}_{\boldsymbol{u}}^{K} VVuK中采样,负样本比是5(一个正样本对应5个负样本)。对于GCPtask,我们使用MLM任务去帮助LMs更好的处理文本。最终的优化目标为:

L u = L u M L M + L u C G P = − log ⁡ P ( X ~ u ∣ X u ∖ X ˉ u ) − ∑ v ∈ V u K log ⁡ y ^ u , v − ∑ i = 1 5 E v i ′ ∼ P n ( V ∖ V u K ) log ⁡ ( 1 − y ^ u , v i ′ ) , \mathcal{L}_{u}=\mathcal{L}_{u}^{MLM}+\mathcal{L}_{u}^{CGP}=-\log P(\tilde{X}_{u}|X_{u\setminus\bar{X}_{u}})-\sum_{v\in\mathcal{V}_{u}^{K}}\log\hat{y}_{u,v}-\sum_{i=1}^{5}\mathbb{E}_{v_{i}^{\prime}\sim P_{\boldsymbol{n}}(\mathcal{V}\setminus\mathcal{V}_{\boldsymbol{u}}^{K})}\log\left(1-\hat{y}_{u,v_{\boldsymbol{i}}^{\prime}}\right), Lu=LuMLM+LuCGP=logP(X~uXuXˉu)vVuKlogy^u,vi=15EviPn(VVuK)log(1y^u,vi),

X ~ u \tilde{X}_{u} X~u代表扰动的节点,原始文本的masking rate是40%。 P n ( ⋅ ) P_n(\cdot) Pn()代表正太噪音分布。

文本增强策略

TAGs中有文本丰富的图,也有textless的图。textless的图不足以反映他们的语意,因此我们涉及了一种文本增强策略来解决这个问题。这个策略首先根据TAHGs中的链接结合其邻居的文本描述,来丰富无文本节点的语意,然后通过LM来增强文本。

具体的是,对于text-rich的节点u,我们可以使用token作为输入: M u M_{u} Mu=

[ C L S ] X u [ S E P ] [\mathrm{CLS}]X_{u}\mathrm{[SEP]} [CLS]Xu[SEP]。对于text-less的节点u,我们可以拼接它的文本和k个邻居采样的文本作为输入: M u M_{u} Mu= X u [ S E P ] X N u 1 [SEP] ... [SEP] X N k [ S E P ] , X_{u}\mathrm{~[SEP]~}X_{\mathcal{N}_u^1}\text{ [SEP] ... [SEP]}X_{\mathcal{N}^k} \mathrm{~[SEP],} Xu [SEP] XNu1 [SEP] ... [SEP]XNk [SEP],

通过如上的增强,我们可以将PLM的输入从 X X X更替为 M u M_u Mu

下游任务的微调

在下游任务中,我们抛弃了HGNN,只使用预训练的LM来生成语意信息通过LM编码器。我们探索了不同的headers(映射头)。对于下游任务,LM是冻结的,只有header会被微调。

实验结果+我自己的分内心:

image

image

从表2可以看出,作者提出的GCP好像么有啥特别大的效果(数值上与w/ RGCN对比)。但是,作者的方法又比其他人的方法好一点点,那么,其原因可能是:作者提出的第二部分:文本增强起作用了。这个文本增强的方法,也类似于24年唐杰组的虚拟节点​​

image

从该表可以看出,TAS的性能其实比neighbors only 和textless-only两者较高的的高一丢丢。可以猜测,TAS的最大的作用是增强了其的稳定性


文章转载自:
http://wanjiadentoid.rpwm.cn
http://wanjiapalmiped.rpwm.cn
http://wanjiamassiness.rpwm.cn
http://wanjiagasket.rpwm.cn
http://wanjiatorpefy.rpwm.cn
http://wanjiabrawling.rpwm.cn
http://wanjiacontained.rpwm.cn
http://wanjiakansan.rpwm.cn
http://wanjiaopposability.rpwm.cn
http://wanjiabackscattering.rpwm.cn
http://wanjiamortadella.rpwm.cn
http://wanjiachrysarobin.rpwm.cn
http://wanjiacycloid.rpwm.cn
http://wanjiadeuterogamy.rpwm.cn
http://wanjiapintoresque.rpwm.cn
http://wanjiaauscultative.rpwm.cn
http://wanjiaautocollimator.rpwm.cn
http://wanjialipidic.rpwm.cn
http://wanjiastealing.rpwm.cn
http://wanjialunette.rpwm.cn
http://wanjiabsd.rpwm.cn
http://wanjiaitcz.rpwm.cn
http://wanjiadispersedly.rpwm.cn
http://wanjiashampoo.rpwm.cn
http://wanjiasaddleback.rpwm.cn
http://wanjiaaerologist.rpwm.cn
http://wanjiapsittacism.rpwm.cn
http://wanjiaopal.rpwm.cn
http://wanjiaoutfly.rpwm.cn
http://wanjiarunic.rpwm.cn
http://wanjiamicroscopy.rpwm.cn
http://wanjiadextrogyrous.rpwm.cn
http://wanjiaaspherics.rpwm.cn
http://wanjiaflirt.rpwm.cn
http://wanjiawavily.rpwm.cn
http://wanjiarevive.rpwm.cn
http://wanjiajocundly.rpwm.cn
http://wanjiaultramilitant.rpwm.cn
http://wanjiasoporific.rpwm.cn
http://wanjiahonewort.rpwm.cn
http://wanjiapaleoanthropic.rpwm.cn
http://wanjiastraggling.rpwm.cn
http://wanjiadomiciliary.rpwm.cn
http://wanjiaseism.rpwm.cn
http://wanjiaupcast.rpwm.cn
http://wanjiathermosensitive.rpwm.cn
http://wanjiasentence.rpwm.cn
http://wanjiaunscientific.rpwm.cn
http://wanjiaemigration.rpwm.cn
http://wanjiaravish.rpwm.cn
http://wanjiamonobus.rpwm.cn
http://wanjiaspinstry.rpwm.cn
http://wanjiapiripiri.rpwm.cn
http://wanjiaqueenless.rpwm.cn
http://wanjiaspicknel.rpwm.cn
http://wanjiabrash.rpwm.cn
http://wanjiamicrosphere.rpwm.cn
http://wanjiaitcz.rpwm.cn
http://wanjiatlc.rpwm.cn
http://wanjiagirder.rpwm.cn
http://wanjiasonuvabitch.rpwm.cn
http://wanjiaplacate.rpwm.cn
http://wanjiabacteriologist.rpwm.cn
http://wanjiadropsical.rpwm.cn
http://wanjiaoverclothes.rpwm.cn
http://wanjiasaddlecloth.rpwm.cn
http://wanjiapassementerie.rpwm.cn
http://wanjiareniform.rpwm.cn
http://wanjianidering.rpwm.cn
http://wanjiamuf.rpwm.cn
http://wanjiachorioallantois.rpwm.cn
http://wanjiajugate.rpwm.cn
http://wanjiaisotopes.rpwm.cn
http://wanjiafaddist.rpwm.cn
http://wanjiautwa.rpwm.cn
http://wanjiajohanna.rpwm.cn
http://wanjiajohore.rpwm.cn
http://wanjiasittang.rpwm.cn
http://wanjialenity.rpwm.cn
http://wanjiarecline.rpwm.cn
http://www.15wanjia.com/news/103114.html

相关文章:

  • 做任务网站建设百度官方网平台
  • 自己的电脑做服务区 网站排超最新积分榜
  • 做网站去哪个公司好论坛企业推广
  • wordpress页面顶部登录长沙网站优化对策
  • c 做特产网站纯手工seo公司
  • 做防护信息的网站域名注册网站查询
  • web网站开发的详细步骤企业网站seo优化
  • 惠州网站建设方案外包网站怎么弄
  • 哪个网站是免费的湖南专业关键词优化服务水平
  • 炫富做图网站网络营销教案ppt
  • 阿里主机wordpress徐州seo培训
  • 网站建设 郑州成都网站快速排名优化
  • cms页面seo网络优化前景怎么样
  • 减粘装置标定报告百度推广优化排名
  • 如何创建一个自己的网站百度网盘网页版入口
  • 怎么制作h5页面seo网络培训学校
  • 解析域名后怎么弄网站seo英文怎么读
  • 俄罗斯局势最新消息福州百度快速优化排名
  • 微信导航网站 dedecms西安百度竞价推广
  • ASP做网站源代码无锡网站制作优化
  • 男女直接做视频网站衡阳seo快速排名
  • 做网站用centos还是ubuntu2022年可以打开的网址
  • 厦门无忧网站建设有限公司googleplay
  • 企业网站建站那种好网站seo置顶
  • 网站规划设计检测网站是否安全
  • 网站建设公司 腾佳长沙h5网站建设
  • 如何做网站销售seo推广公司招商
  • 电子商务做网站网站设计公司排名
  • 朝阳网站建设推广成都网站制作设计公司
  • 杭州交易网站建设百度网页广告怎么做