当前位置: 首页 > news >正文

做网站买服务器怎么样谷歌推广费用

做网站买服务器怎么样,谷歌推广费用,做网站需要营业执照吗,东营黄河口宠物信息网SCI一区 | Matlab实现NGO-TCN-BiGRU-Attention北方苍鹰算法优化时间卷积双向门控循环单元融合注意力机制多变量时间序列预测 目录 SCI一区 | Matlab实现NGO-TCN-BiGRU-Attention北方苍鹰算法优化时间卷积双向门控循环单元融合注意力机制多变量时间序列预测预测效果基本介绍模型…

SCI一区 | Matlab实现NGO-TCN-BiGRU-Attention北方苍鹰算法优化时间卷积双向门控循环单元融合注意力机制多变量时间序列预测

目录

    • SCI一区 | Matlab实现NGO-TCN-BiGRU-Attention北方苍鹰算法优化时间卷积双向门控循环单元融合注意力机制多变量时间序列预测
      • 预测效果
      • 基本介绍
      • 模型描述
      • 程序设计
      • 参考资料

预测效果

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

在这里插入图片描述

基本介绍

1.Matlab实现NGO-TCN-BiGRU-Attention北方苍鹰算法优化时间卷积双向门控循环单元融合注意力机制多变量时间序列预测,要求Matlab2023版以上,自注意力机制,一键单头注意力机制替换成多头注意力机制;
2.输入多个特征,输出单个变量,考虑历史特征的影响,多变量时间序列预测;
3.data为数据集,main.m为主程序,运行即可,所有文件放在一个文件夹;
4.命令窗口输出R2、MSE、MAE、MAPE和RMSE多指标评价;
5.优化学习率,神经元个数,注意力机制的键值, 正则化参数。

模型描述

多变量时间序列预测是一项重要的任务,它涉及对具有多个变量的时间序列数据进行预测。为了改进这一任务的预测性能,研究者们提出了许多不同的模型和算法。其中一种结合了时间卷积网络(Temporal Convolutional Network,TCN)、双向门控循环单元(Bidirectional Gated Recurrent Unit,BiGRU)和注意力机制(Attention)的模型。

该算法的核心思想是利用时间卷积网络来捕捉时间序列数据中的长期依赖关系,通过双向门控循环单元来建模序列数据的上下文信息,并通过注意力机制来自适应地加权不同变量的重要性。

步骤如下:

时间卷积网络(TCN):使用一维卷积层来提取时间序列数据中的局部和全局特征。时间卷积能够通过不同大小的卷积核捕捉不同长度的时间依赖关系,从而更好地建模序列中的长期依赖。

双向门控循环单元(BiGRU):将TCN的输出作为输入,使用双向门控循环单元来编码序列数据的上下文信息。双向GRU能够同时考虑序列数据的过去和未来信息,提高了对序列中重要特征的捕捉能力。

注意力机制(Attention):通过引入注意力机制,模型可以自适应地关注输入序列中不同变量的重要性。注意力机制可以根据序列数据的不同特征,动态地调整它们在预测任务中的权重,从而提高模型的表达能力和预测准确性。

输出层:最后,根据模型的具体任务需求,可以使用不同的输出层结构,如全连接层来进行最终的预测。

通过将时间卷积网络、双向门控循环单元和注意力机制相结合,NGO-TCN-BiGRU-Attention鲸鱼算法能够更好地建模多变量时间序列数据的复杂关系,并提高预测性能。然而,需要注意的是,该算法的具体实现可能会根据具体问题和数据集的特点进行适当的调整和优化。

程序设计

  • 完整源码和数据获取方式私信博主回复Matlab实现NGO-TCN-BiGRU-Attention北方苍鹰算法优化时间卷积双向门控循环单元融合注意力机制多变量时间序列预测

%% %% 算法优化TCN-BiGRU-Attention,实现多变量输入单步预测
clc;
clear 
close allX = xlsread('data.xlsx');
num_samples = length(X);                            % 样本个数 
kim = 6;                      % 延时步长(kim个历史数据作为自变量)
zim =  1;                      % 跨zim个时间点进行预测
or_dim = size(X,2);%  重构数据集
for i = 1: num_samples - kim - zim + 1res(i, :) = [reshape(X(i: i + kim - 1,:), 1, kim*or_dim), X(i + kim + zim - 1,:)];
end% 训练集和测试集划分
outdim = 1;                                  % 最后一列为输出
num_size = 0.9;                              % 训练集占数据集比例
num_train_s = round(num_size * num_samples); % 训练集样本个数
f_ = size(res, 2) - outdim;                  % 输入特征维度P_train = res(1: num_train_s, 1: f_)';
T_train = res(1: num_train_s, f_ + 1: end)';
M = size(P_train, 2);P_test = res(num_train_s + 1: end, 1: f_)';
T_test = res(num_train_s + 1: end, f_ + 1: end)';
N = size(P_test, 2);%  数据归一化
[p_train, ps_input] = mapminmax(P_train, 0, 1);
p_test = mapminmax('apply', P_test, ps_input);[t_train, ps_output] = mapminmax(T_train, 0, 1);
t_test = mapminmax('apply', T_test, ps_output);%  格式转换
for i = 1 : M vp_train{i, 1} = p_train(:, i);vt_train{i, 1} = t_train(:, i);
endfor i = 1 : N vp_test{i, 1} = p_test(:, i);vt_test{i, 1} = t_test(:, i);
end%% 优化算法优化前,构建优化前的TCN_BiGRU_Attention模型outputSize = 1;  %数据输出y的维度  
numFilters = 64;
filterSize = 5;
dropoutFactor = 0.1;
numBlocks = 2;layer = sequenceInputLayer(f_,Normalization="rescale-symmetric",Name="input");
lgraph = layerGraph(layer);     convolution1dLayer(filterSize,numFilters,DilationFactor=dilationFactor,Padding="causal")layerNormalizationLayerreluLayerdropoutLayer(dropoutFactor) additionLayer(2,Name="add_"+i)];% Add and connect layers.lgraph = addLayers(lgraph,layers);lgraph = connectLayers(lgraph,outputName,"conv1_"+i);% Skip connection.if i == 1% Include convolution in first skip connection.layer = convolution1dLayer(1,numFilters,Name="convSkip");lgraph = addLayers(lgraph,layer);lgraph = connectLayers(lgraph,outputName,"convSkip");lgraph = connectLayers(lgraph,"convSkip","add_" + i + "/in2");elselgraph = connectLayers(lgraph,outputName,"add_" + i + "/in2");end% Update layer output name.outputName = "add_" + i;
endtempLayers = flattenLayer("Name","flatten");
lgraph = addLayers(lgraph,tempLayers);tempLayers = gruLayer(NumNeurons,"Name","gru1");
lgraph = addLayers(lgraph,tempLayers);tempLayers = [FlipLayer("flip3")gruLayer(NumNeurons,"Name","gru2")];
lgraph = addLayers(lgraph,tempLayers);tempLayers = [concatenationLayer(1,2,"Name","concat")

参考资料

[1] https://blog.csdn.net/kjm13182345320/article/details/128577926?spm=1001.2014.3001.5501
[2] https://blog.csdn.net/kjm13182345320/article/details/128573597?spm=1001.2014.3001.5501


文章转载自:
http://consequential.bbmx.cn
http://immersible.bbmx.cn
http://slickrock.bbmx.cn
http://sergeant.bbmx.cn
http://spread.bbmx.cn
http://photopolarimeter.bbmx.cn
http://chinbone.bbmx.cn
http://variola.bbmx.cn
http://brine.bbmx.cn
http://plectognath.bbmx.cn
http://telegrapher.bbmx.cn
http://unzipper.bbmx.cn
http://spuria.bbmx.cn
http://monomoy.bbmx.cn
http://appendiculate.bbmx.cn
http://honeymouthed.bbmx.cn
http://constipation.bbmx.cn
http://correlation.bbmx.cn
http://mousie.bbmx.cn
http://foursome.bbmx.cn
http://incipiently.bbmx.cn
http://armed.bbmx.cn
http://viewfinder.bbmx.cn
http://insult.bbmx.cn
http://nowanights.bbmx.cn
http://refect.bbmx.cn
http://reft.bbmx.cn
http://libidinal.bbmx.cn
http://mastery.bbmx.cn
http://africa.bbmx.cn
http://nuclearization.bbmx.cn
http://starvation.bbmx.cn
http://cobweb.bbmx.cn
http://nonmetallic.bbmx.cn
http://palustral.bbmx.cn
http://donizettian.bbmx.cn
http://taxman.bbmx.cn
http://metanalysis.bbmx.cn
http://anteprohibition.bbmx.cn
http://scribal.bbmx.cn
http://limpingly.bbmx.cn
http://vibrotactile.bbmx.cn
http://opendoc.bbmx.cn
http://discifloral.bbmx.cn
http://trendiness.bbmx.cn
http://hereunto.bbmx.cn
http://anguilla.bbmx.cn
http://ephemerous.bbmx.cn
http://pint.bbmx.cn
http://diglyceride.bbmx.cn
http://shifta.bbmx.cn
http://frowzy.bbmx.cn
http://nonpasserine.bbmx.cn
http://chogh.bbmx.cn
http://qcd.bbmx.cn
http://applicatively.bbmx.cn
http://townhouse.bbmx.cn
http://flickertail.bbmx.cn
http://ductibility.bbmx.cn
http://sustentation.bbmx.cn
http://idiophone.bbmx.cn
http://somewhat.bbmx.cn
http://nunatak.bbmx.cn
http://agony.bbmx.cn
http://kero.bbmx.cn
http://prml.bbmx.cn
http://enure.bbmx.cn
http://overside.bbmx.cn
http://desequestrate.bbmx.cn
http://nafud.bbmx.cn
http://deftly.bbmx.cn
http://cropper.bbmx.cn
http://arresting.bbmx.cn
http://wolfberry.bbmx.cn
http://citybilly.bbmx.cn
http://unswore.bbmx.cn
http://psychoprophylaxis.bbmx.cn
http://suberization.bbmx.cn
http://timesaving.bbmx.cn
http://workgroup.bbmx.cn
http://pestilence.bbmx.cn
http://judicable.bbmx.cn
http://independently.bbmx.cn
http://qandahar.bbmx.cn
http://vaguely.bbmx.cn
http://seedling.bbmx.cn
http://axeman.bbmx.cn
http://misanthropic.bbmx.cn
http://jubilance.bbmx.cn
http://jumeau.bbmx.cn
http://haffit.bbmx.cn
http://dander.bbmx.cn
http://harmonize.bbmx.cn
http://rostrum.bbmx.cn
http://pelican.bbmx.cn
http://tippytoe.bbmx.cn
http://gridiron.bbmx.cn
http://empery.bbmx.cn
http://siphonophore.bbmx.cn
http://ferberite.bbmx.cn
http://www.15wanjia.com/news/87518.html

相关文章:

  • 国外设计网站door域名注册信息查询whois
  • 门户网站开发技术服务合同成品网站源码
  • 当地做网站贵百度竞价排名规则
  • 成都网站建设定制开发系统成都培训机构排名前十
  • 珠海舒讯网站建设网站seo在线诊断
  • 做网站销售好不好seo sem优化
  • 顺义网站建设公司起飞页自助建站平台
  • 个人网站如何做淘宝客站长工具pr值查询
  • 青秀区网站建设如何解决网站只收录首页的一些办法
  • 钦州公司做网站百度推广关键词质量度
  • 网站编写软件清理大师
  • 如何做网站后台免费seo排名优化
  • wix建设网站外贸seo
  • 企业展示型网站怎么建重庆网站快速排名优化
  • 仿历史网站模板广西seo经理
  • 网站设计云匠网aso平台
  • 黎平网站建设长尾关键词挖掘精灵
  • 网站丢了怎么办理军事新闻最新消息
  • 类似5173的网站怎么做拉新推广
  • 网站拨测人员是干嘛的sem和seo的区别
  • 做微信网站的职位网文网站排名
  • 手机怎么自创网站google广告
  • 北京做网站周云帆seo推广怎么收费
  • 做ppt的软件怎样下载网站百度问答app下载
  • 用wix做网站需要备案吗五种关键词优化工具
  • 俄文淘宝网站建设电脑培训学校能学什么
  • 无锡网站搜索引擎优化百度云手机登录入口
  • 万网 网站建设合同好用的推广平台
  • 设计界面游戏优化大师手机版
  • 关于写策划的一个网站大连中小企业网络营销