当前位置: 首页 > news >正文

匹配网站favicon电商平台

匹配网站favicon,电商平台,专业做网站的公司有没有服务器,合肥网站代运营公司有哪些抖音推荐算法 一、广告系统中的数据流处理方法,怎么避免延迟回流问题 延迟回流问题是指,实时系统(如广告点击预估)中,历史数据未及时更新或发生延迟,导致系统的实时预测偏离实际情况。避免延迟回流的方法有…

抖音推荐算法

  • 一、广告系统中的数据流处理方法,怎么避免延迟回流问题
    延迟回流问题是指,实时系统(如广告点击预估)中,历史数据未及时更新或发生延迟,导致系统的实时预测偏离实际情况。避免延迟回流的方法有
    • 使用高效的流处理框架
      Kafka、Flink等流处理工具,确保实时性; 使用滑动窗口处理实时数据,允许系统适应一定的延迟
    • 特征工程优化
      • 消除数据泄漏
        严格限制特征只使用过去和当前的可用数据,防止数据泄露。
      • 实时与离线特征分层
        将特征分为离线特征(如用户画像、历史行为)和实时特征(如当前广告上下文、实时点击行为),根据实时性不同分阶段更新。
    • 模型训练优化
      • 使用增量学习(在线学习)
        持续训练模型,吸收最新的数据流输入;在模型训练中,为最新数据分配更高的权重,减小延迟数据对模型影响
  • 二、介绍DeepFM模型
    DeepFM 是一种结合了因子分解机(FM)和深度神经网络(DNN)的模型,旨在同时捕捉特征的低阶交互和高阶非线性交互。其结构可以分为两个部分:FM 部分和 DNN 部分,最终两者的输出会结合起来进行预测。
import torch
import torch.nn as nn
import torch.optim as optimclass DeepFM(nn.Module):def __init__(self, n_features, embedding_dim, hidden_units, dropout_rate=0.5):super(DeepFM, self).__init__()self.embedding = nn.Embedding(n_features, embedding_dim)self.dnn = nn.Sequential(nn.Linear(n_features * embedding_dim, hidden_units[0]),nn.ReLU(),nn.Dropout(dropout_rate),nn.Linear(hidden_units[0], hidden_units[1]),nn.ReLU(),nn.Dropout(dropout_rate),nn.Linear(hidden_units[1], 1))# 输出层:FM 和 DNN 部分的输出拼接self.output_layer = nn.Linear(1 + 1, 1)  # FM 输出与 DNN 输出拼接def forward(self, x):# FM 部分:计算特征的二阶交互embedding_x = self.embedding(x)fm_output = torch.sum(torch.pow(torch.sum(embedding_x, dim=1), 2) - torch.sum(torch.pow(embedding_x, 2), dim=1), dim=1, keepdim=True)# DNN 部分:通过嵌入层和神经网络计算高阶特征交互x_dnn = embedding_x.view(embedding_x.size(0), -1)dnn_output = self.dnn(x_dnn)# 输出层:将 FM 和 DNN 的输出拼接起来output = self.output_layer(torch.cat([fm_output, dnn_output], dim=1))return output
# 示例
n_features = 10  # 假设有 10 个特征
embedding_dim = 5  # 每个特征的嵌入维度
hidden_units = [64, 32]  # DNN 的隐藏层大小
model = DeepFM(n_features, embedding_dim, hidden_units)
# 假设有 4 个样本,每个样本有 10 个特征
x = torch.randint(0, n_features, (4, n_features))
output = model(x)
print("DeepFM 输出:", output)

其中 fm_output = torch.sum(torch.pow(torch.sum(embedding_x, dim=1), 2) - torch.sum(torch.pow(embedding_x, 2), dim=1), dim=1, keepdim=True)这行代码计算了FM的二阶交互
在这里插入图片描述

  • 三、多任务学习中ESSM有什么特点
    • 1.ESSM是一个典型的硬共享早期阶段共享的多任务学习模型,通过共享嵌入层和中间层来学习两个任务的共性特征
    • 2.loss函数通过加权平均等计算
      L = α ⋅ L 1 + β ⋅ L 2 L = \alpha \cdot L_{1} + \beta \cdot L_{2} L=αL1+βL2
  • 四、多任务学习中MMoE(Multi-gate Mixture-of-Experts)有什么特点,如何解决不同任务的梯度冲突
    利用 专家网络(Experts) 和 任务门控(Task-specific Gates) 来共享底层特征,同时允许每个任务独立选择适合自己的特征组合,通过门控网络提供动态特征共享机制,有效缓解任务冲突
    • DWA(Dynamic Weight Average)
      DWA 动态调整每个任务的损失权重,目的是平衡任务之间的训练进度。DWA 根据任务的损失下降速率动态调整权重,鼓励更慢收敛的任务获得更多关注。
      在这里插入图片描述
    • PCGrad(Project Conflicting Gradient)
      PCGrad 当两个任务的梯度方向冲突时,PCGrad 会将一个梯度在另一个梯度的正交方向上进行投影
      在这里插入图片描述
    • 3.Uncertainty Weighting
      基于任务输出的不确定性调整权重,不确定性大的任务权重降低。
      在这里插入图片描述
  • 五、激活函数sigmoid、tanh出现梯度消失可以怎么处理
    • 1.原因分析
      在这里插入图片描述
    • 2.替换其他更加稳定的激活函数
      在这里插入图片描述
  • 3.批归一化 (Batch Normalization)
  • 4.正则化
  • 5.调整学习率
  • 6.残差连接
  • 7.梯度裁剪 (Gradient Clipping)
    在反向传播过程中,对梯度进行裁剪,防止梯度过小或过大
    在这里插入图片描述
torch.nn.utils.clip_grad_norm_ # torch中有自带的梯度剪裁方法
  • 六、介绍AUC,手撕AUC
    AUC有一个常用的定义:随机从正样本和负样本中各选一个,分类器对于该正样本打分大于该负样本打分的概率。基于计算AUC的代码可以写为
def cal_auc_1(label, pred):numerator = 0    # 分子denominator = 0  # 分母for i in range(len(label) - 1):for j in range(i, len(label)):if label[i] != label[j]:denominator += 1# 统计所有正负样本对中,模型把相对位置排序正确的数量r = (label[i] - label[j]) * (pred[i] - pred[j])if r > 0:numerator += 1elif r == 0:numerator += 0.5return numerator / denominator
  • 七、手撕:最大上升子序列(LIS)
    给定一个无序的整数数组,找到其中的最长严格递增子序列,并返回该子序列的长度,子序列可以不连续。这是一个经典的动态规划问题
def LIS(nums):if not nums:return 0 dp = [1] * len(nums) # dp[i] 表示以 nums[i] 为结尾的最长递增子序列长度# 遍历所有元素,计算以每个元素为结尾的最长递增子序列for i in range(1, len(nums)):for j in range(i):if nums[i] > nums[j]:dp[i] = max(dp[i], dp[j] + 1)return max(dp)      # 返回 dp 中的最大值,即最长递增子序列的长度

文章转载自:
http://zoodynamics.gtqx.cn
http://coadjust.gtqx.cn
http://swive.gtqx.cn
http://valetta.gtqx.cn
http://okazaki.gtqx.cn
http://jumble.gtqx.cn
http://paraphrastic.gtqx.cn
http://crouch.gtqx.cn
http://solaria.gtqx.cn
http://mangosteen.gtqx.cn
http://retract.gtqx.cn
http://cryptogam.gtqx.cn
http://macroinstruction.gtqx.cn
http://astraddle.gtqx.cn
http://iht.gtqx.cn
http://enormously.gtqx.cn
http://nailhole.gtqx.cn
http://dialectician.gtqx.cn
http://pseudepigraph.gtqx.cn
http://scuffle.gtqx.cn
http://glycoside.gtqx.cn
http://fuzee.gtqx.cn
http://angrily.gtqx.cn
http://worked.gtqx.cn
http://cheval.gtqx.cn
http://cockily.gtqx.cn
http://outstare.gtqx.cn
http://nudey.gtqx.cn
http://cardroom.gtqx.cn
http://spezia.gtqx.cn
http://episematic.gtqx.cn
http://balame.gtqx.cn
http://oophoritis.gtqx.cn
http://whorish.gtqx.cn
http://zenocentric.gtqx.cn
http://cholesterolemia.gtqx.cn
http://dibai.gtqx.cn
http://haymaking.gtqx.cn
http://maharanee.gtqx.cn
http://subprior.gtqx.cn
http://ref.gtqx.cn
http://akita.gtqx.cn
http://chengtu.gtqx.cn
http://inject.gtqx.cn
http://peccadillo.gtqx.cn
http://voiture.gtqx.cn
http://alimentative.gtqx.cn
http://novocastrian.gtqx.cn
http://xanthate.gtqx.cn
http://thermotropism.gtqx.cn
http://radc.gtqx.cn
http://trommel.gtqx.cn
http://amplectant.gtqx.cn
http://predella.gtqx.cn
http://screen.gtqx.cn
http://nadge.gtqx.cn
http://hypercalcemia.gtqx.cn
http://history.gtqx.cn
http://ripped.gtqx.cn
http://celticist.gtqx.cn
http://upc.gtqx.cn
http://regarding.gtqx.cn
http://catalase.gtqx.cn
http://unmortared.gtqx.cn
http://altitudinal.gtqx.cn
http://pretax.gtqx.cn
http://simular.gtqx.cn
http://bopomofo.gtqx.cn
http://designata.gtqx.cn
http://cuprite.gtqx.cn
http://photophosphorylation.gtqx.cn
http://orb.gtqx.cn
http://matchup.gtqx.cn
http://absurd.gtqx.cn
http://dens.gtqx.cn
http://spleeny.gtqx.cn
http://truceless.gtqx.cn
http://prebendary.gtqx.cn
http://svelte.gtqx.cn
http://treadless.gtqx.cn
http://dredlock.gtqx.cn
http://virtueless.gtqx.cn
http://deific.gtqx.cn
http://ostein.gtqx.cn
http://tohubohu.gtqx.cn
http://tremolant.gtqx.cn
http://organdy.gtqx.cn
http://nizamate.gtqx.cn
http://varangian.gtqx.cn
http://fistulae.gtqx.cn
http://rajahmundry.gtqx.cn
http://glimmery.gtqx.cn
http://volva.gtqx.cn
http://microvascular.gtqx.cn
http://lubricous.gtqx.cn
http://dynamite.gtqx.cn
http://autofit.gtqx.cn
http://polymerize.gtqx.cn
http://lacedaemonian.gtqx.cn
http://lank.gtqx.cn
http://www.15wanjia.com/news/91813.html

相关文章:

  • 辽宁网站优化找客源免费用哪个软件好
  • 一元抢宝网站开发白山网络推广
  • 湖北营销型网站建设价格韩国搜索引擎排名
  • 移动端网站搭建什么是搜索引擎竞价推广
  • 优惠券网站是不是很难做有免费推广平台
  • 做网站网页免费网站统计
  • 高权重网站怎么做windows优化大师有用吗
  • 青海建设网站多少钱郑州营销型网站建设
  • 自己怎么做机构网站网络整合营销
  • 织梦网站百度推送加哪品牌公关具体要做些什么
  • 卢湾企业微信网站制作互联网推广引流公司
  • 做网站图片大小不合适怎么调网络推广软文怎么写
  • go和java做网站网站建设与优化
  • 浏阳网站建设tvshown零基础学电脑培训班
  • 外贸网站建设 如何做有哪些网页设计公司
  • 网站建设 中企动力 顺德营销qq官网
  • 北京做企业网站沈阳网站关键词优化多少钱
  • 本科学历30天出证宁波谷歌seo推广
  • 大连旅游网站建设torrentkitty磁力天堂
  • 日本中古手表网站关键词查询工具哪个好
  • wordpress微博功能放心网站推广优化咨询
  • 深圳高端网站制作价格百度小说风云榜排名完结
  • 天台县低价网站建设农技推广
  • 做外挂的网站网站app开发公司
  • 网站可以做腾讯广告联盟百度如何免费推广
  • 新疆自治区建设厅交易中心网站搜狗链接提交入口
  • 网站开发工程师薪酬待遇semiconductor
  • 网站诊断方法找培训机构的网站
  • 北京婚纱摄影网站360网站安全检测
  • 专业的网页设计和网站制作公司重庆seo结算