当前位置: 首页 > news >正文

唯美图片wordpress主题网站seo推广平台

唯美图片wordpress主题,网站seo推广平台,无锡市城乡和住房建设局网站,深圳南山网络公司卷积神经网络介绍 卷积神经网络(Convolutional Neural Network,简称CNN),是一种深度学习模型,特别适用于处理图像、视频等数据。它的核心思想是利用卷积层(Convolutional layers)来提取输入数据…

卷积神经网络介绍

卷积神经网络(Convolutional Neural Network,简称CNN),是一种深度学习模型,特别适用于处理图像、视频等数据。它的核心思想是利用卷积层(Convolutional layers)来提取输入数据中的局部特征,通过滑动窗口的方式扫描数据,并应用滤波器(filter或kernel)进行特征检测。每一层卷积会捕获不同尺度和位置的特征,然后通过池化层(pooling layers)减少数据尺寸并保留重要信息。

卷积结构

如下图所示,一个简单的CNN由输入层,卷积层,池化层,全连接层,输出层组成
在这里插入图片描述

输入层(Input):

输入层的作用就是将图像转换为其对应的由像素值构成的二维矩阵,并将此二维矩阵存储,等待后面几层的操作。
**如果输入一张尺寸为(H, W)的彩色图像,则输入层的数据为一个(H×W×3)的矩阵,数值范围为[0, 255],其中,3表示RGB三个通道,一般称作该输入层为3通道(channel),或者说包含3个feature map,如果是灰度图像,则数据表示为(H×W×1),1个通道或者1个feature map。从数值上讲,此处的3通道或者1通道与后续每一层卷积结果的feature map数量是等价的。

卷积层(Conv)

假设我们已经得到图片的二维矩阵了,想要提取其中特征,那么卷积操作就会为存在特征的区域确定一个高值,否则确定一个低值。这个过程需要通过计算其与卷积核(Convolution Kernel)的乘积值来确定。假设我们现在的输入图片是一个人的脑袋,而人的眼睛是我们需要提取的特征,那么我们就将人的眼睛作为卷积核,通过在人的脑袋的图片上移动来确定哪里是眼睛,这个过程如下所示:
提取人的眼睛的特征的过程 有的读者可能注意到,每次卷积核移动的时候中间位置都被计算了,而输入图像二维矩阵的边缘却只计算了一次,会不会导致计算的结果不准确呢?

让我们仔细思考,如果每次计算的时候,边缘只被计算一次,而中间被多次计算,那么得到的特征图也会丢失边缘特征,最终会导致特征提取不准确,那为了解决这个问题,我们可以在原始的输入图像的二维矩阵周围再拓展一圈或者几圈,这样每个位置都可以被公平的计算到了,也就不会丢失任何特征,此过程可见下面两种情况,这种通过拓展解决特征丢失的方法又被称为Padding

池化层(pooling)

当特征图非常多的时候,意味着我们得到的特征也非常多,但是这么多特征都是我们所需要的么?显然不是,其实有很多特征我们是不需要的,而这些多余的特征通常会给我们带来如下两个问题

  1. 过拟合
  2. 维度过高
    为了解决这个问题,我们可以利用池化层,那什么是池化层呢?池化层又称为下采样,也就是说,当我们进行卷积操作后,再将得到的特征图进行特征提取,将其中最具有代表性的特征提取出来,可以起到减小过拟合和降低维度的作用,这个过程如下所示:
    池化的过程
    如何提取到最有代表性的特征呢,通常有两种方法:
  3. 最大池化

顾名思义,最大池化就是每次取正方形中所有值的最大值,这个最大值也就相当于当前位置最具有代表性的特征,这个过程如下所示:在这里插入图片描述
这里有几个参数需要说明一下:
① kernel_size = 2:池化过程使用的正方形尺寸是2×2,如果是在卷积的过程中就说明卷积核的大小是2×2
② stride = 2:每次正方形移动两个位置(从左到右,从上到下),这个过程其实和卷积的操作过程一样
③ padding = 0:这个之前介绍过,如果此值为0,说明没有进行拓展

2. 平均池化

平均池化就是取此正方形区域中所有值的平均值,考虑到每个位置的值对于此处特征的影响,平均池化计算也比较简单,整个过程如下图所示:
平均池化的过程 以上就是关于池化层的所有操作,我们再回顾一下,经过池化后,我们可以提取到更有代表性的特征,同时还减少了不必要的计算,这对于我们现实中的神经网络计算大有脾益,因为现实情况中神经网络非常大,而经过池化层后,就可以明显的提高模型的效率。所以说,池化层的好处很多,将其优点总结如下:

在减少参数量的同时,还保留了原图像的原始特征

有效防止过拟合

为卷积神经网络带来平移不变性

全连接层(fully connected)

假设还是上面人的脑袋的示例,现在我们已经通过卷积和池化提取到了这个人的眼睛、鼻子和嘴的特征,如果我想利用这些特征来识别这个图片是否是人的脑袋该怎么办呢?此时我们只需要将提取到的所有特征图进行“展平”,将其维度变为1 × x 1×x1×x,这个过程就是全连接的过程,也就是说,此步我们将所有的特征都展开并进行运算,最后会得到一个概率值,这个概率值就是输入图片是否是人的概率,这个过程如下所示:
在这里插入图片描述
可以看到,经过两次卷积和最大池化之后,得到最后的特征图,此时的特征都是经过计算后得到的,所以代表性比较强,最后经过全连接层,展开为一维的向量,再经过一次计算后,得到最终的识别概率,这就是卷积神经网络的整个过程。

输出层

卷积神经网络的输出层理解起来就比较简单了,我们只需要将全连接层得到的一维向量经过计算后得到识别值的一个概率,当然,这个计算可能是线性的,也可能是非线性的。在深度学习中,我们需要识别的结果一般都是多分类的,所以每个位置都会有一个概率值,代表识别为当前值的概率,取最大的概率值,就是最终的识别结果。在训练的过程中,可以通过不断地调整参数值来使识别结果更准确,从而达到最高的模型准确率。

基于AlexNet实现“猫狗分类”步骤

AlexNet网络结构相对简单,使用了8层卷积神经网络,前5层是卷积层,剩下的3层是全连接层,具体如下所示。
    在这里插入图片描述

了解AlexNet网络结构

在深度学习框架下,搭建一个网络进行训练和测试十分方便,主要包括三个步骤:

准备数据,将数据集中的数据整理成程序代码可识别读取的形式。

def mkfile(file):if not os.path.exists(file):os.makedirs(file)
# 获取data文件夹下所有文件夹名(即需要分类的类名)
file_path = 'D:/python-learning/AlexNet/data_name'
flower_class = [cla for cla in os.listdir(file_path)]# 创建 训练集train 文件夹,并由类名在其目录下创建5个子目录
mkfile('data/train')
for cla in flower_class:mkfile('data/train/' + cla)# 创建 验证集val 文件夹,并由类名在其目录下创建子目录
mkfile('data/val')
for cla in flower_class:mkfile('data/val/' + cla)# 划分比例,训练集 : 验证集 = 8 : 2
split_rate = 0.2# 遍历所有类别的全部图像并按比例分成训练集和验证集
for cla in flower_class:cla_path = file_path + '/' + cla + '/'  # 某一类别的子目录images = os.listdir(cla_path)  # iamges 列表存储了该目录下所有图像的名称num = len(images)eval_index = random.sample(images, k=int(num * split_rate))  # 从images列表中随机抽取 k 个图像名称for index, image in enumerate(images):# eval_index 中保存验证集val的图像名称if image in eval_index:image_path = cla_path + imagenew_path = 'data/val/' + clacopy(image_path, new_path)  # 将选中的图像复制到新路径# 其余的图像保存在训练集train中else:image_path = cla_path + imagenew_path = 'data/train/' + clacopy(image_path, new_path)print("\r[{}] processing [{}/{}]".format(cla, index + 1, num), end="")  # processing barprint()print("processing done!")

搭建网络,利用PyTorch提供的API搭建设计的网络

class MyAlexNet(nn.Module):def __init__(self):super(MyAlexNet, self).__init__()# 卷积层self.c1 = nn.Conv2d(in_channels=3, out_channels=48, kernel_size=11, stride=4, padding=2)# 激活函数self.ReLu = nn.ReLU()# 卷积层self.c2 = nn.Conv2d(in_channels=48, out_channels=128, kernel_size=5, stride=1, padding=2)# 池化层self.s2 = nn.MaxPool2d(2)# 卷积层self.c3 = nn.Conv2d(in_channels=128, out_channels=192, kernel_size=3, stride=1, padding=1)# 池化层self.s3 = nn.MaxPool2d(2)# 卷积层self.c4 = nn.Conv2d(in_channels=192, out_channels=192, kernel_size=3, stride=1, padding=1)# 卷积层self.c5 = nn.Conv2d(in_channels=192, out_channels=128, kernel_size=3, stride=1, padding=1)# 池化层self.s5 = nn.MaxPool2d(kernel_size=3, stride=2)self.flatten = nn.Flatten()# 全连接层self.f6 = nn.Linear(4608, 2048)self.f7 = nn.Linear(2048, 2048)self.f8 = nn.Linear(2048, 1000)self.f9 = nn.Linear(1000, 2)def forward(self, x):x = self.ReLu(self.c1(x))x = self.ReLu(self.c2(x))x = self.s2(x)x = self.ReLu(self.c3(x))x = self.s3(x)x = self.ReLu(self.c4(x))x = self.ReLu(self.c5(x))x = self.s5(x)x = self.flatten(x)x = self.f6(x)x = F.dropout(x, p=0.5)x = self.f7(x)x = F.dropout(x, p=0.5)x = self.f8(x)x = F.dropout(x, p=0.5)x = self.f9(x)return x# 实例化与测试
if __name__ == '__main__':x = torch.rand([1, 3, 224, 224])model = MyAlexNet()y = model(x)

训练网络,把1中准备好的数据送入2中搭建的网络中进行训练,获得网络各节点权值参数


# 训练集的路径
ROOT_TRAIN = r'D:/python-learning/AlexNet/data/train'
# 验证集路径
ROOT_TEST = r'D:/python-learning/AlexNet/data/val'# 将图像的像素值归一化到【-1, 1】之间
normalize = transforms.Normalize([0.5, 0.5, 0.5], [0.5, 0.5, 0.5])# 图片预处理
train_transform = transforms.Compose([transforms.Resize((224, 224)),transforms.RandomVerticalFlip(),transforms.ToTensor(),normalize])val_transform = transforms.Compose([transforms.Resize((224, 224)),transforms.ToTensor(),normalize])# 导入数据
train_dataset = ImageFolder(ROOT_TRAIN, transform=train_transform)
val_dataset = ImageFolder(ROOT_TEST, transform=val_transform)train_dataloader = DataLoader(train_dataset, batch_size=32, shuffle=True)
val_dataloader = DataLoader(val_dataset, batch_size=32, shuffle=True)device = 'cuda' if torch.cuda.is_available() else 'cpu'model = MyAlexNet().to(device)# 定义一个损失函数
loss_fn = nn.CrossEntropyLoss()# 定义一个优化器
optimizer = torch.optim.SGD(model.parameters(), lr=0.01, momentum=0.9)# 学习率每隔10轮变为原来的0.5
lr_scheduler = lr_scheduler.StepLR(optimizer, step_size=10, gamma=0.5)# 定义训练函数
def train(dataloader, model, loss_fn, optimizer):loss, current, n = 0.0, 0.0, 0for batch, (x, y) in enumerate(dataloader):image, y = x.to(device), y.to(device)output = model(image)cur_loss = loss_fn(output, y)  # 误差_, pred = torch.max(output, axis=1)cur_acc = torch.sum(y==pred) / output.shape[0]# 反向传播optimizer.zero_grad()cur_loss.backward()optimizer.step()loss += cur_loss.item()current += cur_acc.item()n = n+1train_loss = loss / ntrain_acc = current / nprint('train_loss' + str(train_loss))print('train_acc' + str(train_acc)) #训练的精确度return train_loss, train_acc# 定义一个验证函数
def val(dataloader, model, loss_fn):# 将模型转化为验证模型model.eval()loss, current, n = 0.0, 0.0, 0with torch.no_grad():for batch, (x, y) in enumerate(dataloader):image, y = x.to(device), y.to(device)output = model(image)cur_loss = loss_fn(output, y)_, pred = torch.max(output, axis=1)cur_acc = torch.sum(y == pred) / output.shape[0]loss += cur_loss.item()current += cur_acc.item()n = n + 1val_loss = loss / nval_acc = current / nprint('val_loss' + str(val_loss))print('val_acc' + str(val_acc))return val_loss, val_acc# 定义画图函数
def matplot_loss(train_loss, val_loss):plt.plot(train_loss, label='train_loss')plt.plot(val_loss, label='val_loss')plt.legend(loc='best')plt.ylabel('loss')plt.xlabel('epoch')plt.title("训练集和验证集loss值对比图")plt.show()def matplot_acc(train_acc, val_acc):plt.plot(train_acc, label='train_acc')plt.plot(val_acc, label='val_acc')plt.legend(loc='best')plt.ylabel('acc')plt.xlabel('epoch')plt.title("训练集和验证集acc值对比图")plt.show()# 开始训练
loss_train = []
acc_train = []
loss_val = []
acc_val = []epoch = 20
min_acc = 0
for t in range(epoch):print(f"epoch{t+1}\n-----------")train_loss, train_acc = train(train_dataloader, model, loss_fn, optimizer)val_loss, val_acc = val(val_dataloader, model, loss_fn)loss_train.append(train_loss)acc_train.append(train_acc)loss_val.append(val_loss)acc_val.append(val_acc)# 保存最好的模型权重if val_acc >min_acc:folder = 'save_model'if not os.path.exists(folder):os.mkdir('save_model')min_acc = val_accprint(f"save best model, 第{t+1}轮")torch.save(model.state_dict(), 'save_model/best_model.pth')# 保存最后一轮的权重文件if t == epoch-1:torch.save(model.state_dict(), 'save_model/last_model.pth')
lr_scheduler.step()
matplot_loss(loss_train, loss_val)
matplot_acc(acc_train, acc_val)
print('Done!')

测试网络,导入3中获取的参数,并输入网络一个数据,然后评估网络的输出结果


ROOT_TRAIN = r'D:/python-learning/AlexNet/data/train'
ROOT_TEST = r'D:/python-learning/AlexNet/data/val'# 将图像的像素值归一化到【-1, 1】之间
normalize = transforms.Normalize([0.5, 0.5, 0.5], [0.5, 0.5, 0.5])train_transform = transforms.Compose([transforms.Resize((224, 224)),transforms.RandomVerticalFlip(),transforms.ToTensor(),normalize])val_transform = transforms.Compose([transforms.Resize((224, 224)),transforms.ToTensor(),])train_dataset = ImageFolder(ROOT_TRAIN, transform=train_transform)
val_dataset = ImageFolder(ROOT_TEST, transform=val_transform)train_dataloader = DataLoader(train_dataset, batch_size=32, shuffle=True)
val_dataloader = DataLoader(val_dataset, batch_size=32, shuffle=True)device = 'cuda' if torch.cuda.is_available() else 'cpu'model = MyAlexNet().to(device)# 加载模型
model.load_state_dict(torch.load("D:/python-learning/AlexNet/save_model/best_model.pth"))# 获取预测结果
classes = ["cat","dog",
]# 把张量转化为照片格式
show = ToPILImage()# 进入到验证阶段
model.eval()
for i in range(2475,2525):x, y = val_dataset[i][0], val_dataset[i][1]show(x).show()x = Variable(torch.unsqueeze(x, dim=0).float(), requires_grad=True).to(device)x = torch.tensor(x).to(device)with torch.no_grad():pred = model(x)predicted, actual = classes[torch.argmax(pred[0])], classes[y]print(f'predicted:"{predicted}", Actual:"{actual}"')

文章转载自:
http://transatlantic.spkw.cn
http://uniserial.spkw.cn
http://psychosexuality.spkw.cn
http://anticonvulsive.spkw.cn
http://pad.spkw.cn
http://russian.spkw.cn
http://refluent.spkw.cn
http://atony.spkw.cn
http://taoist.spkw.cn
http://conservatorium.spkw.cn
http://tilsiter.spkw.cn
http://midstream.spkw.cn
http://aluminography.spkw.cn
http://suttle.spkw.cn
http://soutache.spkw.cn
http://headend.spkw.cn
http://hocktide.spkw.cn
http://retroengine.spkw.cn
http://irritate.spkw.cn
http://monotype.spkw.cn
http://correlator.spkw.cn
http://eutropic.spkw.cn
http://electrodynamometer.spkw.cn
http://minimalism.spkw.cn
http://teleseme.spkw.cn
http://deanna.spkw.cn
http://kohl.spkw.cn
http://rheumatically.spkw.cn
http://incb.spkw.cn
http://etceteras.spkw.cn
http://unpronounced.spkw.cn
http://bandwidth.spkw.cn
http://instability.spkw.cn
http://rubbishy.spkw.cn
http://metonic.spkw.cn
http://averment.spkw.cn
http://autochthonism.spkw.cn
http://traffic.spkw.cn
http://intuitivist.spkw.cn
http://desiderata.spkw.cn
http://kwangchow.spkw.cn
http://preadult.spkw.cn
http://api.spkw.cn
http://caesaropapism.spkw.cn
http://strabismus.spkw.cn
http://noteless.spkw.cn
http://transductant.spkw.cn
http://bdsa.spkw.cn
http://removable.spkw.cn
http://wilder.spkw.cn
http://semichemical.spkw.cn
http://kavakava.spkw.cn
http://overpunch.spkw.cn
http://taroc.spkw.cn
http://terracotta.spkw.cn
http://pocosin.spkw.cn
http://convex.spkw.cn
http://cither.spkw.cn
http://schopenhauerian.spkw.cn
http://favoring.spkw.cn
http://ambisyllabic.spkw.cn
http://epencephalic.spkw.cn
http://homeoplastic.spkw.cn
http://royale.spkw.cn
http://bandwagon.spkw.cn
http://flowerpot.spkw.cn
http://cavea.spkw.cn
http://polyphylesis.spkw.cn
http://fritter.spkw.cn
http://laminitis.spkw.cn
http://muezzin.spkw.cn
http://regolith.spkw.cn
http://underactor.spkw.cn
http://subcompany.spkw.cn
http://rhombi.spkw.cn
http://unpersuaded.spkw.cn
http://omniscient.spkw.cn
http://bioactive.spkw.cn
http://cantonese.spkw.cn
http://inimically.spkw.cn
http://sedge.spkw.cn
http://dispersoid.spkw.cn
http://forbearing.spkw.cn
http://communard.spkw.cn
http://centner.spkw.cn
http://ruffianism.spkw.cn
http://insectivore.spkw.cn
http://hymnography.spkw.cn
http://heterotrophe.spkw.cn
http://adverb.spkw.cn
http://compaction.spkw.cn
http://heeltap.spkw.cn
http://diamagnetize.spkw.cn
http://trapezist.spkw.cn
http://aerobiology.spkw.cn
http://unmarketable.spkw.cn
http://granulocytopenia.spkw.cn
http://psychoanalyse.spkw.cn
http://mateless.spkw.cn
http://specifical.spkw.cn
http://www.15wanjia.com/news/88161.html

相关文章:

  • php网站开发实用技术课后习题百度搜索引擎api
  • 陕西省网站开发谷歌google搜索引擎入口
  • php制作网站用什么软件郴州网站建设
  • 制作网站需要哪些工作郑州网站建设优化
  • 广州哪里有网站建设谷歌seo服务公司
  • 哪个网站可以做平面兼职搜索引擎网站优化和推广方案
  • 凡客官方网站专卖店网站建设设计
  • 免费建站模板网站网络服务主要包括什么
  • 模板搭建网站网站搭建公司哪家好
  • 家具网站建设策划站外推广平台有哪些
  • vs2010做网站时间控件长沙百家号seo
  • 想自己做淘宝有什么网站吗如何在百度上推广业务
  • 炫酷做网站背景图百度升级最新版本
  • 昆明网站建设系统近期网络营销的热点事件
  • b2b网站制作seo网站编辑优化招聘
  • 怎么做网站推广怎么样谷歌sem服务商
  • 网站解决方案模板夸克搜索网页版
  • 品牌策划方案ppt温州seo
  • 虚拟主机多个网站海洋seo
  • 在什么网站做知识禁毒竞赛全网网络营销
  • 网站如何做免费的推广百度关键词优化策略
  • PHP动态网站开发实训总结网络营销企业有哪些公司
  • 包头网站 建设百度识图搜索图片来源
  • 深圳网站备案拍照济南市新闻最新消息
  • 请人做网站社群营销的十大案例
  • 网站手机端优化网站设计公司报价
  • 专门做高端网站设计的云华设计项目推广网站
  • 防伪码查询网站怎么做的精准营销的案例
  • 建设简单企业网站上海百度seo点击软件
  • 西安网站开发联系方式深圳全网营销平台排名