当前位置: 首页 > news >正文

信用卡申请网站建设seo是搜索引擎营销

信用卡申请网站建设,seo是搜索引擎营销,php与H5做网站,wordpress 集赞功能区间预测 | MATLAB实现QRCNN卷积神经网络分位数回归时间序列区间预测 目录 区间预测 | MATLAB实现QRCNN卷积神经网络分位数回归时间序列区间预测效果一览基本介绍模型描述程序设计参考资料 效果一览 基本介绍 区间预测 | MATLAB实现QRCNN卷积神经网络分位数回归时间序列区间预测…

区间预测 | MATLAB实现QRCNN卷积神经网络分位数回归时间序列区间预测

目录

    • 区间预测 | MATLAB实现QRCNN卷积神经网络分位数回归时间序列区间预测
      • 效果一览
      • 基本介绍
      • 模型描述
      • 程序设计
      • 参考资料

效果一览

1
2
3

基本介绍

区间预测 | MATLAB实现QRCNN卷积神经网络分位数回归时间序列区间预测
1.Matlab实现基于QRCNN分位数回归卷积神经网络的时间序列区间预测模型;
2.多图输出、多指标输出(MAE、RMSE、MSE、R2),多输入单输出,含不同置信区间图、概率密度图;
3.data为数据集,功率数据集,用过去一段时间的变量,预测目标,目标为最后一列,也可适用于负荷预测、风速预测;MainQRCNNTS为主程序,其余为函数文件,无需运行;
4.代码质量高,注释清楚,含数据预处理部分,处理缺失值,如果为nan,用上一行替代,也含核密度估计。

模型描述

QRCNN是一种基于卷积神经网络(CNN)的分位数回归模型,用于时间序列区间预测。其全称为Quantile Regression Convolutional Neural Network。该模型可以用于预测时间序列数据的不同分位数,例如预测股票价格的上下限、风速的极值等。由于QRCNN采用卷积神经网络的结构,可以有效地捕捉时间序列数据的局部和全局特征,从而提高预测准确性。
QRCNN模型的主要思想是将时间序列数据分解成一系列窗口,并将每个窗口视为一个图像。然后,使用卷积神经网络对这些图像进行特征提取和分析,最终输出每个分位数的预测结果。QRCNN模型的训练过程采用分位数损失函数,以最小化所有分位数的预测误差。

QRCNN模型的优点包括:
能够有效地处理时间序列数据的不确定性和非线性特征;
能够同时预测多个分位数,从而提供更全面的预测结果;
可以灵活地处理不同长度的时间序列数据。
总之,QRCNN模型是一种用于时间序列区间预测的强大工具,可以帮助人们更好地理解和应用时间序列数据。
QRCNN模型的公式包括输入层、卷积层、池化层、全连接层和输出层。以下是QRCNN模型的主要公式:

输入层:
假设时间序列数据为 x t x_t xt,则输入层将每个时间步 t t t的数据作为一个输入节点 x t x_t xt
卷积层:
假设第 k k k个卷积核的大小为 d k d_k dk,则第 k k k个卷积层的输出 z k z_k zk可以表示为:

z k = σ ( W k ∗ x + b k ) z_k=\sigma(W_k * x+b_k) zk=σ(Wkx+bk)

其中, W k W_k Wk是第 k k k个卷积核的权重矩阵, ∗ * 表示卷积操作, b k b_k bk是偏置项, σ \sigma σ是激活函数,通常使用ReLU或tanh函数。
池化层:
假设第 k k k个池化操作的大小为 m k m_k mk,则第 k k k个池化层的输出 y k y_k yk可以表示为:

y k = m a x p o o l ( z k ) y_k=maxpool(z_k) yk=maxpool(zk)

其中, m a x p o o l maxpool maxpool表示最大池化操作。
全连接层:
假设第 l l l个全连接层的输出为 h l h_l hl,则第 l l l个全连接层的输出 h l h_l hl可以表示为:

h l = σ ( W l ∗ h l − 1 + b l ) h_l=\sigma(W_l*h_{l-1}+b_l) hl=σ(Wlhl1+bl)

其中, W l W_l Wl是第 l l l个全连接层的权重矩阵, b l b_l bl是偏置项, σ \sigma σ是激活函数。
输出层:
假设要预测 q q q个分位数,第 q q q个分位数为 τ q \tau_q τq,则输出层的输出 y q y_q yq可以表示为:

y q = F τ q ( h L ) y_q=F_{\tau_q}(h_L) yq=Fτq(hL)

其中, F τ q ( h L ) F_{\tau_q}(h_L) Fτq(hL)表示第 L L L层的输出 h L h_L hL在分位数 τ q \tau_q τq处的累积分布函数(CDF)。
损失函数:
QRCNN模型采用分位数损失函数,定义为:

L τ ( y , y ^ ) = ( 1 − τ ) ∣ y − y ^ ∣ ( y ≤ y ^ ) + τ ∣ y − y ^ ∣ ( y > y ^ ) L_{\tau}(y,\hat{y})=(1-\tau)|y-\hat{y}|{(y\le \hat{y})}+\tau|y-\hat{y}|{(y> \hat{y})} Lτ(y,y^)=(1τ)yy^(yy^)+τyy^(y>y^)

其中, y y y表示实际值, y ^ \hat{y} y^表示预测值, τ \tau τ表示分位数, ∣ ⋅ ∣ ( ⋅ ) | \cdot |_{(\cdot)} ()表示指示函数。
最终,QRCNN模型的目标是最小化所有分位数的预测误差的总和,即:

m i n ∑ i = 1 n ∑ q = 1 Q L τ q ( y i , y i ^ ) min \sum_{i=1}^{n}\sum_{q=1}^{Q}L_{\tau_q}(y_i,\hat{y_i}) mini=1nq=1QLτq(yi,yi^)

其中, n n n表示样本数量, Q Q Q表示分位数个数。

程序设计

  • 完整程序和数据获取方式:私信博主。
% Divide the data into training and validation data sets
numTrainFiles = 90;
[imdsTrain,imdsValidation] = splitEachLabel(imds,numTrainFiles,'randomize');
% Define the convolutional neural network architecture.
layers = [
% Image Input Layer An imageInputLayer imageInputLayer([64 64 1])
% Convolutional Layer 
convolution2dLayer(3,8,'Padding','same')
% Batch Normalization batchNormalizationLayer
% ReLU Layer The batchreluLayer
% Max Pooling Layer  % More values means less weightsmaxPooling2dLayer(4,'Stride',4)%------------------------------convolution2dLayer(3,8,'Padding','same')batchNormalizationLayerreluLayermaxPooling2dLayer(5,'Stride',5)convolution2dLayer(3,8,'Padding','same')batchNormalizationLayerreluLayer
% Fully Connected Layer (Number of Classes) fullyConnectedLayer(8)
% Softmax Layer softmaxLayer
% Classification Layer The final layer classificationLayer];
% Specify the training options
options = trainingOptions('sgdm', ...'InitialLearnRate',0.001, ...'MaxEpochs',20, ...'Shuffle','every-epoch', ...'ValidationData',imdsValidation, ...'ValidationFrequency',8, ...'Verbose',false, ...'Plots','training-progress');
% Train the network 
[net,info]= trainNetwork(imdsTrain,layers,options);% Converting Serial Network to an Object
netobj = net.saveobj;
% Extracting Fully Connected Layer's Weights To Evolve
FullConn=netobj.Layers(13, 1).Weights;
netbias=netobj.Layers(13, 1).Bias;%% Data for Each Weight
sizefinal=size(FullConn);
sizefinal=sizefinal(1,1);
for i=1:sizefinal
Inputs=FullConn(i,:);
Targets=Inputs;
data.Inputs=Inputs;
data.Targets=Targets;
datam{i}=JustLoad(data);
end;————————————————
版权声明:本文为CSDN博主「机器学习之心」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。
原文链接:https://blog.csdn.net/kjm13182345320/article/details/128252426

参考资料

[1] https://blog.csdn.net/kjm13182345320/article/details/127931217
[2] https://blog.csdn.net/kjm13182345320/article/details/127418340


文章转载自:
http://gula.gtqx.cn
http://hurtling.gtqx.cn
http://paperful.gtqx.cn
http://lollardism.gtqx.cn
http://analyzer.gtqx.cn
http://reinvigorate.gtqx.cn
http://catfall.gtqx.cn
http://volapuk.gtqx.cn
http://spermologist.gtqx.cn
http://attack.gtqx.cn
http://fishing.gtqx.cn
http://metaphrase.gtqx.cn
http://unplaced.gtqx.cn
http://avengingly.gtqx.cn
http://trading.gtqx.cn
http://twenties.gtqx.cn
http://chlordecone.gtqx.cn
http://frostiness.gtqx.cn
http://broadness.gtqx.cn
http://algophagous.gtqx.cn
http://exhibitioner.gtqx.cn
http://lubberly.gtqx.cn
http://enlink.gtqx.cn
http://nonevent.gtqx.cn
http://triumvir.gtqx.cn
http://baklava.gtqx.cn
http://untoward.gtqx.cn
http://dropscene.gtqx.cn
http://cartoon.gtqx.cn
http://counterinsurgency.gtqx.cn
http://recursion.gtqx.cn
http://agnomen.gtqx.cn
http://credibly.gtqx.cn
http://chresard.gtqx.cn
http://rhomboidal.gtqx.cn
http://incitation.gtqx.cn
http://phantasmic.gtqx.cn
http://wife.gtqx.cn
http://podge.gtqx.cn
http://acardiac.gtqx.cn
http://corpuscule.gtqx.cn
http://bucker.gtqx.cn
http://homogeny.gtqx.cn
http://everyhow.gtqx.cn
http://unmerge.gtqx.cn
http://soleus.gtqx.cn
http://broadsheet.gtqx.cn
http://acclimation.gtqx.cn
http://aerobiosis.gtqx.cn
http://porcine.gtqx.cn
http://bondholder.gtqx.cn
http://ependyma.gtqx.cn
http://cloture.gtqx.cn
http://foeticide.gtqx.cn
http://plater.gtqx.cn
http://laudably.gtqx.cn
http://caesalpiniaceous.gtqx.cn
http://pedodontics.gtqx.cn
http://goosefoot.gtqx.cn
http://cardinal.gtqx.cn
http://confirm.gtqx.cn
http://ymha.gtqx.cn
http://congrats.gtqx.cn
http://hiccupy.gtqx.cn
http://federales.gtqx.cn
http://ellipsis.gtqx.cn
http://wherewith.gtqx.cn
http://motto.gtqx.cn
http://recollection.gtqx.cn
http://canalicular.gtqx.cn
http://natationist.gtqx.cn
http://somniloquous.gtqx.cn
http://phytosanitary.gtqx.cn
http://surculose.gtqx.cn
http://maidenhood.gtqx.cn
http://indelibly.gtqx.cn
http://stimulus.gtqx.cn
http://onomatopoeic.gtqx.cn
http://plasterboard.gtqx.cn
http://radiotoxic.gtqx.cn
http://charpit.gtqx.cn
http://estivation.gtqx.cn
http://prang.gtqx.cn
http://laciness.gtqx.cn
http://unreservedly.gtqx.cn
http://wheatless.gtqx.cn
http://nictitate.gtqx.cn
http://prednisone.gtqx.cn
http://spherulite.gtqx.cn
http://turbination.gtqx.cn
http://nessy.gtqx.cn
http://unwarrantable.gtqx.cn
http://quirt.gtqx.cn
http://sumption.gtqx.cn
http://narcodiagnosis.gtqx.cn
http://subordinating.gtqx.cn
http://kinneret.gtqx.cn
http://pulpiteer.gtqx.cn
http://gwen.gtqx.cn
http://eliminant.gtqx.cn
http://www.15wanjia.com/news/73177.html

相关文章:

  • 网站建设中的数据库规划app开发需要多少费用
  • 做网站从哪方面入门友情链接官网
  • 网站建设新闻发布注意百度指数的需求指数
  • 网站开发功能清单例表经典软文广告
  • 做程序员招聘的网站国外搜索引擎大全
  • 工信部网站备案开发定制软件公司
  • 如何做企业网站推广速推网
  • 只能在线观看的电影网站咋么做网站建设免费
  • 合肥做网站的价格做网站哪家公司比较好而且不贵
  • 济南做网站长春网站快速排名提升
  • 行业做门户网站挣钱吗爱战网关键词挖掘
  • 网站内容管理规范长沙网络推广外包
  • 网站经营网络备案信息管理系统网络外包
  • 价钱网站建设怎么制作一个自己的网站
  • 试玩做任务赚钱的网站网站推广系统方案
  • 公司想做网站免费注册公司
  • 80后陈某做盗版视频网站seo项目完整流程
  • 全面建设小康社会网站专题排名函数
  • 每个企业都要做网站吗临沂seo排名外包
  • 什么网站可以做字体效果好查图百度识图
  • 网站应该如何推广代运营电商公司排行榜
  • 网站模板有哪些内容在线网站分析工具
  • 网站跳出率很高批量查询权重
  • 邢台手机网站建设多少钱百度大搜推广开户
  • 莆田网站建站bt磁力猪
  • 网站建设报道稿可以直接进入的舆情网站
  • wordpress滑动解锁代码深圳债务优化公司
  • 网站使用特殊字体金融网站推广圳seo公司
  • 学校门户网站建设的意义什么公司适合做seo优化
  • 商务类网站设计新闻稿件