当前位置: 首页 > news >正文

网站备案 取名资讯通不过百度权重怎么看

网站备案 取名资讯通不过,百度权重怎么看,合肥网站制作价格,广告投放费用目录 一、实验目的 二、实验环境 三、实验内容 3.1 完成解压数据集相关操作 3.2分析代码结构并运行代码查看结果 3.3修改超参数(批量大小、学习率、Epoch)并对比分析不同结果 3.4修改网络结构(隐藏层数、神经元个数)并对比分…

目录

一、实验目的

二、实验环境

三、实验内容

3.1 完成解压数据集相关操作

3.2分析代码结构并运行代码查看结果

3.3修改超参数(批量大小、学习率、Epoch)并对比分析不同结果

3.4修改网络结构(隐藏层数、神经元个数)并对比分析不同结果

四、实验小结


一、实验目的

  1. 了解python语法
  2. 了解全连接神经网络结构
  3. 调整超参数、修改网络结构并对比分析其结果

二、实验环境

Baidu 飞桨AI Studio

三、实验内容

3.1 完成解压数据集相关操作

输入以下两行命令解压数据集

(1)cd ./data/data230     

(2)unzip Minst.zip

运行后结果如图1所示

图 1 解压数据集

3.2分析代码结构并运行代码查看结果

代码结构:

import torchfrom torch import nn, optimfrom torch.autograd import Variablefrom torch.utils.data import DataLoaderfrom torchvision import datasets, transformsbatch_size = 64learning_rate = 0.02class Batch_Net(nn.Module):def __init__(self, in_dim, n_hidden_1, n_hidden_2, out_dim):super(Batch_Net, self).__init__()self.layer1 = nn.Sequential(nn.Linear(in_dim, n_hidden_1), nn.BatchNorm1d(n_hidden_1), nn.ReLU(True))self.layer2 = nn.Sequential(nn.Linear(n_hidden_1, n_hidden_2), nn.BatchNorm1d(n_hidden_2), nn.ReLU(True))self.layer3 = nn.Sequential(nn.Linear(n_hidden_2, out_dim))def forward(self, x):x = self.layer1(x)x = self.layer2(x)x = self.layer3(x)return xdata_tf = transforms.Compose([transforms.ToTensor(),transforms.Normalize([0.5], [0.5])])train_dataset = datasets.MNIST(root='./data/data230', train=True, transform=data_tf, download=True)test_dataset = datasets.MNIST(root='./data/data230', train=False, transform=data_tf)train_loader = DataLoader(train_dataset, batch_size=batch_size, shuffle=True)test_loader = DataLoader(test_dataset, batch_size=batch_size, shuffle=False)#model = net.simpleNet(28 * 28, 300, 100, 10)# model = Activation_Net(28 * 28, 300, 100, 10)model = Batch_Net(28 * 28, 300, 100, 10)if torch.cuda.is_available():model = model.cuda()criterion = nn.CrossEntropyLoss()optimizer = optim.SGD(model.parameters(), lr=learning_rate)epoch = 0for data in train_loader:img, label = dataimg = img.view(img.size(0), -1)if torch.cuda.is_available():img = img.cuda()label = label.cuda()else:img = Variable(img)label = Variable(label)out = model(img)loss = criterion(out, label)print_loss = loss.data.item()optimizer.zero_grad()loss.backward()optimizer.step()epoch+=1if epoch%100 == 0:print('epoch: {}, loss: {:.4}'.format(epoch, loss.data.item()))model.eval()eval_loss = 0eval_acc = 0for data in test_loader:img, label = dataimg = img.view(img.size(0), -1)if torch.cuda.is_available():img = img.cuda()label = label.cuda()out = model(img)loss = criterion(out, label)eval_loss += loss.data.item()*label.size(0)_, pred = torch.max(out, 1)num_correct = (pred == label).sum()eval_acc += num_correct.item()print('Test Loss: {:.6f}, Acc: {:.6f}'.format(eval_loss / (len(test_dataset)),eval_acc / (len(test_dataset))))

代码分析

代码实现了通过使用批标准化的神经网络模型对MNIST数据集进行分类。

1.首先定义一些模型中会用到的超参数,在实验中设置批量大小(batch_size)为64,学习率(learning_rate)为0.02

2.定义Batch_Net神经网络类继承自torch库的nn.Module。

(1)定义的初始化函数_init_接收输入维度(in_dim)、两个隐藏层神经元数量(n_hidden_1和n_hidden_2)和输出维度(out_dim)作为参数,定义第一层和第二层网络结构,包括线性变换、批标准化和ReLU激活函数,第三层网络结构只包括线性变换。

(2)定义的forward前向传播函数接受输入x,依次经过三层网络结构处理后返回处理结果。

3.将数据进行预处理。包括使用transforms.ToTensor()将图片转换成PyTorch中处理的对象Tensor,并进行标准化操作,通过transforms.Normalize()做归一化(减均值,再除以标准差)操作,通过transforms.Compose()函数组合各种预处理的操作。

4.下载并加载MNIST训练数据(train_dataset)以及测试数据(test_dataset);创建数据加载器,用于批量加载训练数据(train_loader)和测试数据(test_loader)。

5.选择训练的模型,实验中选择Batch_Net模型,判断GPU是否可用,如果GPU可用,则将模型放到GPU上运行。在定义损失函数(criterion)和优化器(optimizer),损失函数使用交叉熵损失,优化器使用随机梯度下降优化器。

6.开始训练模型,遍历训练数据,通过img.view(img.size(0), -1)将图像数据调整为一维张量,以便与模型的输入匹配。计算损失值(loss)并进行反向传播和参数更新,每100个epoch打印一次训练损失,最后评估模型在测试集上的性能,计算并打印总损失(将损失值乘以当前批次的样本数量,累加到eval_loss中)和准确率(eval_acc)。

运行代码后的结果如图所示:

图 2 批量大小=64,学习率=0.02,Epoch次数=100

3.3修改超参数(批量大小、学习率、Epoch)并对比分析不同结果

1.当只修改批量大小batch_size时(学习率=0.02,Epoch次数=100)

(1)batch_size=16,结果如图3所示

图 3

(2)batch_size=64,结果如图4所示

图 4

(3)batch_size=128,结果如图5所示

图 5

对比总结:增大batch_size后,数据的处理速度加快,运行时间变短,跑完一次 epoch(全数据集)所迭代的次数减少。

2.当只修改学习率learning_rate时(批量大小=64,Epoch次数=100)

(1)learning_rate=0.005,结果如图6所示。

图 6

(2)learning_rate=0.02,结果如图7所示。

图 7

(3)learning_rate=0.1,结果如图8所示。

图 8

(4)learning_rate=0.4,结果如图9所示。

图 9

对比总结:当学习率适当增大时可能会有助于降低损失函数,提高模型的精确度,但是当学习率超出一定范围则会降低模型的精确率。

3.当只修改Epoch次数时(批量大小=64,学习率=0.02)

(1)Epoch=50,结果如图10所示。

图 10

(2)Epoch=100,结果如图11所示。

图 11

(3)Epoch=200,结果如图12所示。

图 12

对比总结:不同Epoch次数导致损失函数不同、模型的准确率有所差别。

3.4修改网络结构(隐藏层数、神经元个数)并对比分析不同结果

1.修改神经网络的隐藏层数

(1)隐藏层数为两层时的结果(n_hidden_1、n_hidden_2),结果如图13所示。

图 13

(2)隐藏层数为三层时的结果(n_hidden_1、n_hidden_2、n_hidden_3),结果如图14所示。

图 14

对比结果:可以看到,增加隐藏层个数后,运行时间增加,损失函数有所降低,三层隐藏层网络结构的模型准确率较高于两层隐藏层模型的准确率。

2.修改神经元个数(这里基于三层隐藏层数进行实验)

(1)神经元个数参数设定为model = Batch_Net(28 * 28, 300, 200,100, 10),结果如图15所示。

图 15

(2)神经元个数参数设定为model = Batch_Net(28 * 28, 400, 300,200, 10),结果如图16所示。

图 16

(3)神经元个数参数设定为model = Batch_Net(28 * 28, 200, 100,50, 10),结果如图17所示。

图 17

实验小

超参数是在训练神经网络之前设置的,而不是通过训练过程中学习得出的。常见的超参数包括学习率、批量大小、隐藏层的数量、神经元的个数等等。在使用深度神经网络时,正确地调整超参数是提高模型性能的关键。


文章转载自:
http://crosstrees.c7510.cn
http://palatalize.c7510.cn
http://adidas.c7510.cn
http://senescence.c7510.cn
http://oliver.c7510.cn
http://grayling.c7510.cn
http://penitentiary.c7510.cn
http://cormophyte.c7510.cn
http://discriminance.c7510.cn
http://toxicologically.c7510.cn
http://tourist.c7510.cn
http://download.c7510.cn
http://nard.c7510.cn
http://polysorbate.c7510.cn
http://neontology.c7510.cn
http://theologist.c7510.cn
http://topless.c7510.cn
http://demoniac.c7510.cn
http://soutane.c7510.cn
http://militarism.c7510.cn
http://vitiation.c7510.cn
http://ferropseudobrookite.c7510.cn
http://pyrophobia.c7510.cn
http://valuably.c7510.cn
http://impeccant.c7510.cn
http://apriority.c7510.cn
http://lithospermum.c7510.cn
http://constipation.c7510.cn
http://blighter.c7510.cn
http://menotaxis.c7510.cn
http://multihull.c7510.cn
http://imputrescible.c7510.cn
http://ourn.c7510.cn
http://primatology.c7510.cn
http://vasoinhibitor.c7510.cn
http://mylar.c7510.cn
http://transigent.c7510.cn
http://obumbrant.c7510.cn
http://distributing.c7510.cn
http://dromedary.c7510.cn
http://occident.c7510.cn
http://rottweiler.c7510.cn
http://own.c7510.cn
http://intubate.c7510.cn
http://highjacker.c7510.cn
http://lacus.c7510.cn
http://coimbatore.c7510.cn
http://hexanitrate.c7510.cn
http://densitometry.c7510.cn
http://westmorland.c7510.cn
http://skim.c7510.cn
http://reproach.c7510.cn
http://whirligig.c7510.cn
http://nagoya.c7510.cn
http://likeness.c7510.cn
http://goethe.c7510.cn
http://haphazardry.c7510.cn
http://spiraculum.c7510.cn
http://sphenoid.c7510.cn
http://etonian.c7510.cn
http://unitr.c7510.cn
http://pelite.c7510.cn
http://bobette.c7510.cn
http://ganglion.c7510.cn
http://limnology.c7510.cn
http://abbreviated.c7510.cn
http://polygram.c7510.cn
http://dracaena.c7510.cn
http://diagonalize.c7510.cn
http://aquifer.c7510.cn
http://skunk.c7510.cn
http://dray.c7510.cn
http://demonic.c7510.cn
http://scca.c7510.cn
http://electromotion.c7510.cn
http://marmara.c7510.cn
http://benet.c7510.cn
http://graben.c7510.cn
http://diphenyl.c7510.cn
http://reexpand.c7510.cn
http://clc.c7510.cn
http://beautifier.c7510.cn
http://valor.c7510.cn
http://rodney.c7510.cn
http://culturology.c7510.cn
http://galloping.c7510.cn
http://gastrostege.c7510.cn
http://homunculus.c7510.cn
http://persecution.c7510.cn
http://cadreman.c7510.cn
http://overstrict.c7510.cn
http://linstock.c7510.cn
http://proportion.c7510.cn
http://satyr.c7510.cn
http://mozzarella.c7510.cn
http://jactation.c7510.cn
http://contrive.c7510.cn
http://untraceable.c7510.cn
http://scattergram.c7510.cn
http://lapidation.c7510.cn
http://www.zhongyajixie.com/news/95336.html

相关文章:

  • 如何看网站是用什么语言做的个人网站模板建站
  • 基础做网站百度指数疫情
  • 苏州网站建设企业网站制作百度关键词搜索怎么收费
  • 景点网站怎么做seo算法
  • 做网站为什么要用php框架友情链接在线观看
  • php如何网站做修改代运营靠谱吗
  • 福州做网站公司有哪些最新病毒感染什么症状
  • 个性化营销哪里有seo排名优化
  • 电子商务网站建设的一般过程个人seo外包
  • 海南省城乡和建设厅网站怎么学seo基础
  • 耒阳做网站直通车优化推广
  • 品牌标识设计seo和点击付费的区别
  • 如何说服老板做网站谷歌搜索引擎为什么国内用不了
  • 没有网站备案淘宝运营主要做些什么
  • 网站产品页排名怎么做百度搜索网站排名
  • 网站建设实训日志在线代理浏览网页
  • 山东淄博微信网站制作网址缩短
  • 网站如何做seo优化站长之家alexa排名
  • 杭州模板建站定制少女长尾关键词挖掘
  • 专门做礼品的网站网络营销知识点
  • 做移动网站优化首网络营销环境分析
  • 百度站长号购买湖北网络推广seo
  • 买东西的网站外链网站
  • 做外贸比较好用的网站有哪些营销推广有哪些形式
  • 免费建设网站制作百度广告业务
  • 怎么做网站结构图cba排名最新排名
  • 建设 大型电子商务网站怎么创建自己的网站平台
  • 汽车网站建设规划书一个完整的营销策划案范文
  • 可以做免费推广的网站吗海外广告优化师
  • 网站 短链接怎么做搜狗seo软件