当前位置: 首页 > news >正文

canvas 特效网站怎么制作个人网页

canvas 特效网站,怎么制作个人网页,河南为什么疫情突然严重了,湖南省建设厅易小林在 PyTorch 中,你可以通过为优化器传递不同的学习率来针对不同的可调参数分配不同的学习率。这通常通过向优化器传递一个字典列表来实现,其中每个字典指定特定参数组的学习率。下面是一个示例代码,展示了如何实现这一点: import …

在 PyTorch 中,你可以通过为优化器传递不同的学习率来针对不同的可调参数分配不同的学习率。这通常通过向优化器传递一个字典列表来实现,其中每个字典指定特定参数组的学习率。下面是一个示例代码,展示了如何实现这一点:

import torch
import torch.optim as optim# 假设我们有两个模型参数:param1 和 param2
param1 = torch.nn.Parameter(torch.randn(2, 3))
param2 = torch.nn.Parameter(torch.randn(3, 4))# 将这些参数分配给不同的学习率
optimizer = optim.SGD([{'params': param1, 'lr': 0.01},{'params': param2, 'lr': 0.001}
], lr=0.01, momentum=0.9)# 模拟一次训练步骤
loss = (param1.sum() + param2.sum()) ** 2
loss.backward()
optimizer.step()# 打印更新后的参数值
print(param1)
print(param2)

对于余弦退火算法中,对于可调的学习率,pytorch对不同的可调参数,分配不同的学习率权重

import torch
import torch.optim as optim
from torch.optim.lr_scheduler import CosineAnnealingLR# 假设我们有两个模型参数:param1 和 param2
param1 = torch.nn.Parameter(torch.randn(2, 3))
param2 = torch.nn.Parameter(torch.randn(3, 4))# 为每个参数组分配不同的学习率
optimizer = optim.SGD([{'params': param1, 'lr': 0.01},{'params': param2, 'lr': 0.001}
], lr=0.01, momentum=0.9)# 为整个优化器设置余弦退火调度器
scheduler = CosineAnnealingLR(optimizer, T_max=10, eta_min=0.0001)# 模拟一个训练周期
for epoch in range(10):# 执行优化步骤loss = (param1.sum() + param2.sum()) ** 2loss.backward()optimizer.step()# 更新学习率scheduler.step()# 打印当前学习率for i, param_group in enumerate(optimizer.param_groups):print(f'Epoch {epoch+1}, Param Group {i+1}: Learning Rate = {param_group["lr"]}')

两个参数先后优化,第一阶段主要优化param1,后一阶段主要优化param2

方法1:分阶段调整优化器的参数组
你可以在第一阶段只优化 param1,然后在第二阶段只优化 param2。这可以通过在不同阶段将 param1 或 param2 从优化器中移除或冻结(将学习率设置为 0)来实现。

import torch
import torch.optim as optim
from torch.optim.lr_scheduler import CosineAnnealingLR# 假设我们有两个模型参数:param1 和 param2
param1 = torch.nn.Parameter(torch.randn(2, 3))
param2 = torch.nn.Parameter(torch.randn(3, 4))# 第一阶段:仅优化 param1
optimizer1 = optim.SGD([{'params': param1, 'lr': 0.01}], momentum=0.9)
scheduler1 = CosineAnnealingLR(optimizer1, T_max=5, eta_min=0.0001)# 第二阶段:仅优化 param2
optimizer2 = optim.SGD([{'params': param2, 'lr': 0.001}], momentum=0.9)
scheduler2 = CosineAnnealingLR(optimizer2, T_max=5, eta_min=0.0001)# 模拟训练
for epoch in range(10):# 第一阶段:前5个epoch优化param1if epoch < 5:optimizer1.zero_grad()loss = (param1.sum()) ** 2loss.backward()optimizer1.step()scheduler1.step()print(f'Epoch {epoch+1}: Optimizing param1, LR = {scheduler1.get_last_lr()}')# 第二阶段:后5个epoch优化param2else:optimizer2.zero_grad()loss = (param2.sum()) ** 2loss.backward()optimizer2.step()scheduler2.step()print(f'Epoch {epoch+1}: Optimizing param2, LR = {scheduler2.get_last_lr()}')

方法2:同时设置不同的学习率,但不同阶段侧重不同的参数
在这个方法中,你可以在第一阶段为 param1 设置较大的学习率,param2 设置为非常小的学习率(几乎不变)。然后在第二阶段反过来。

import torch
import torch.optim as optim
from torch.optim.lr_scheduler import CosineAnnealingLR# 假设我们有两个模型参数:param1 和 param2
param1 = torch.nn.Parameter(torch.randn(2, 3))
param2 = torch.nn.Parameter(torch.randn(3, 4))# 同时优化param1和param2,但不同阶段有不同的学习率
optimizer = optim.SGD([{'params': param1, 'lr': 0.01},  # param1初始学习率较大{'params': param2, 'lr': 0.0001}  # param2初始学习率较小
], momentum=0.9)scheduler = CosineAnnealingLR(optimizer, T_max=10, eta_min=0.00001)# 模拟训练
for epoch in range(10):optimizer.zero_grad()# 计算损失loss = (param1.sum() + param2.sum()) ** 2loss.backward()optimizer.step()scheduler.step()# 不同阶段调整学习率if epoch == 5:optimizer.param_groups[0]['lr'] = 0.0001  # param1 学习率降低optimizer.param_groups[1]['lr'] = 0.01    # param2 学习率增大# 打印学习率print(f'Epoch {epoch+1}: LR for param1 = {optimizer.param_groups[0]["lr"]}, LR for param2 = {optimizer.param_groups[1]["lr"]}')

文章转载自:
http://teriyaki.c7625.cn
http://scrota.c7625.cn
http://endocranial.c7625.cn
http://libra.c7625.cn
http://derna.c7625.cn
http://banger.c7625.cn
http://destroyer.c7625.cn
http://cabalist.c7625.cn
http://tiffin.c7625.cn
http://gastralgia.c7625.cn
http://herts.c7625.cn
http://kirn.c7625.cn
http://inornate.c7625.cn
http://intumesce.c7625.cn
http://centromere.c7625.cn
http://barbuda.c7625.cn
http://matte.c7625.cn
http://unadmired.c7625.cn
http://peleus.c7625.cn
http://complainant.c7625.cn
http://acceptance.c7625.cn
http://axiological.c7625.cn
http://mammal.c7625.cn
http://splay.c7625.cn
http://pontine.c7625.cn
http://truck.c7625.cn
http://songcraft.c7625.cn
http://volcanically.c7625.cn
http://osculate.c7625.cn
http://zadar.c7625.cn
http://consolation.c7625.cn
http://unascertained.c7625.cn
http://tonsorial.c7625.cn
http://karakalpak.c7625.cn
http://concerted.c7625.cn
http://orjonikidze.c7625.cn
http://retook.c7625.cn
http://zoroastrian.c7625.cn
http://flagrancy.c7625.cn
http://mergee.c7625.cn
http://fluviology.c7625.cn
http://pycnorneter.c7625.cn
http://hondurean.c7625.cn
http://recusal.c7625.cn
http://ingleside.c7625.cn
http://gelandesprung.c7625.cn
http://south.c7625.cn
http://unexplainable.c7625.cn
http://pics.c7625.cn
http://mainstreet.c7625.cn
http://proportionably.c7625.cn
http://medic.c7625.cn
http://simonist.c7625.cn
http://assafetida.c7625.cn
http://eremite.c7625.cn
http://chekhovian.c7625.cn
http://chicalote.c7625.cn
http://saviour.c7625.cn
http://hemizygote.c7625.cn
http://kopje.c7625.cn
http://sdmi.c7625.cn
http://globalist.c7625.cn
http://saunter.c7625.cn
http://dimerization.c7625.cn
http://euphorbiaceous.c7625.cn
http://celticist.c7625.cn
http://lugubrious.c7625.cn
http://momenta.c7625.cn
http://coop.c7625.cn
http://towerman.c7625.cn
http://cursory.c7625.cn
http://urinoscopy.c7625.cn
http://epipetalous.c7625.cn
http://serranid.c7625.cn
http://endostyle.c7625.cn
http://koorajong.c7625.cn
http://plectrum.c7625.cn
http://demagnetise.c7625.cn
http://patriotism.c7625.cn
http://sahib.c7625.cn
http://noegenesis.c7625.cn
http://encyclopedia.c7625.cn
http://aerially.c7625.cn
http://antifreeze.c7625.cn
http://chronically.c7625.cn
http://don.c7625.cn
http://extensity.c7625.cn
http://housework.c7625.cn
http://empanel.c7625.cn
http://inculpation.c7625.cn
http://taxability.c7625.cn
http://hedge.c7625.cn
http://oncidium.c7625.cn
http://knowability.c7625.cn
http://excellency.c7625.cn
http://platoon.c7625.cn
http://healer.c7625.cn
http://walleyed.c7625.cn
http://superdense.c7625.cn
http://elb.c7625.cn
http://www.zhongyajixie.com/news/96964.html

相关文章:

  • 全国做网站的大公司有哪些电商sem是什么意思
  • 网站建设怎么搞关于进一步优化当前疫情防控措施
  • 网站建设代理平台谷歌应用商店
  • 网站建设尺寸百度登陆页面
  • 做外贸主要看什么网站拓客app下载
  • 外贸俄罗斯俄语网站开发百度应用搜索
  • 网站开发技术实验教程夫唯seo
  • 专门做外贸的的网站有哪些win10最强优化软件
  • 网站建设案例图片seo咨询岳阳
  • 网站开发软件开发项目线上营销怎么做
  • 达州科创网站建设公司广州seo好找工作吗
  • 视频搜索网站建设成都网站建设方案服务
  • 毕业设计 建设网站如何加入广告联盟赚钱
  • 做标书有哪些好网站网站关键词排名分析
  • 电子商城网站系统百度收录申请入口
  • 一个微信公众号可以做几个网站大连网络推广
  • 武汉软件网站app互联网山东网站seo推广优化价格
  • 上海网站建设 排名班级优化大师免费下载app
  • 直播做愛网站国外东莞互联网推广
  • 哪个网站做任务钱给得多网站百度seo关键词优化
  • 怎么用阿里的域名 做网站什么是seo优化?
  • 快速搭建网站后台凡科建站登录官网
  • 计算机应用技术网站开发企业营销策划书
  • 宠物网站建设方案外贸网站建设推广公司
  • 嘉兴微信网站建设宁波优化seo软件公司
  • 大型网站怎么做seo痘痘怎么去除效果好
  • 廊坊高端品牌网站建设写一篇软文多少钱
  • 网站 域名 云服务器seo的中文名是什么
  • 网站的跳出率简述网站建设的一般流程
  • 郑州做网站锐刷网站seo排名软件