当前位置: 首页 > news >正文

怎样做ppt建网站seo查询外链

怎样做ppt建网站,seo查询外链,王者荣耀网站开发目的,网站首页流程图自动微分(Automatic Differentiation)是什么?微分是函数在某一处的导数值,自动微分就是使用计算机程序自动求解函数在某一处的导数值。自动微分可用于计算神经网络反向传播的梯度大小,是机器学习训练中不可或缺的一步。 这些公式难免让人头大…

自动微分(Automatic Differentiation)是什么?微分是函数在某一处的导数值,自动微分就是使用计算机程序自动求解函数在某一处的导数值。自动微分可用于计算神经网络反向传播的梯度大小,是机器学习训练中不可或缺的一步。

这些公式难免让人头大,好在自动微分就是帮助我们“自动”解决微分问题的。机器学习平台如TensorFlow、PyTorch都实现了自动微分,使用非常的方便,不过有必要理解其原理。要理解“自动微分”,需要先理解常见的求解微分的方式,可分为以下四种:

  • 手动求解法(Manual Differentiation)
  • 数值微分法(Numerical Differentiation)
  • 符号微分法(Symbolic Differentiation)
  • 自动微分法(Automatic Differentiation)

所谓手动求解法就是手动算出求导公式,然后将公式编写成计算机代码完成计算。比如对于函数求微分,首先根据求导公式表找出其导数函数 ,然后将这个公式写成计算机程序,对于任意的输入 都能用这段程序求出其导数,也就是此时的微分。是不是很简单?

这样做虽然直观,但却有两个明显的缺点:

  • 每次都要根据手动算出求导公式然后编写代码,导致程序很难复用。
  • 更让人难受的是,复杂的函数普通人很难轻易写出求导公式

函数式自动微分

神经网络的训练主要使用反向传播算法,模型预测值(logits)与正确标签(label)送入损失函数(loss function)获得loss,然后进行反向传播计算,求得梯度(gradients),最终更新至模型参数(parameters)。自动微分能够计算可导函数在某点处的导数值,是反向传播算法的一般化。

自动微分主要解决的问题是将一个复杂的数学运算分解为一系列简单的基本运算,该功能对用户屏蔽了大量的求导细节和过程,大大降低了框架的使用门槛。

MindSpore使用函数式自动微分的设计理念,提供更接近于数学语义的自动微分接口grad和value_and_grad。下面我们使用一个简单的单层线性变换模型进行介绍。

%%capture captured_output
# 实验环境已经预装了mindspore==2.2.14,如需更换mindspore版本,可更改下面mindspore的版本号
!pip uninstall mindspore -y
!pip install -i https://pypi.mirrors.ustc.edu.cn/simple mindspore==2.2.14
import numpy as np
import mindspore
from mindspore import nn
from mindspore import ops
from mindspore import Tensor, Parameter

函数与计算图

计算图是用图论语言表示数学函数的一种方式,也是深度学习框架表达神经网络模型的统一方法。我们将根据下面的计算图构造计算函数和神经网络。

compute-graph

在这个模型中, 𝑥为输入, 𝑦为正确值, 𝑤和 𝑏是我们需要优化的参数。

x = ops.ones(5, mindspore.float32)  # input tensor
y = ops.zeros(3, mindspore.float32)  # expected output
w = Parameter(Tensor(np.random.randn(5, 3), mindspore.float32), name='w') # weight
b = Parameter(Tensor(np.random.randn(3,), mindspore.float32), name='b') # bias

我们根据计算图描述的计算过程,构造计算函数。 其中,binary_cross_entropy_with_logits 是一个损失函数,计算预测值和目标值之间的二值交叉熵损失。

def function(x, y, w, b):z = ops.matmul(x, w) + bloss = ops.binary_cross_entropy_with_logits(z, y, ops.ones_like(z), ops.ones_like(z))return loss

执行计算函数,可以获得计算的loss值。

loss = function(x, y, w, b)
print(loss)
Tensor(shape=[], dtype=Float32, value= 0.914285)

微分函数与梯度计算

为了优化模型参数,需要求参数对loss的导数: ∂loss∂𝑤和 ∂loss∂𝑏,此时我们调用mindspore.grad函数,来获得function的微分函数。

这里使用了grad函数的两个入参,分别为:

  • fn:待求导的函数。
  • grad_position:指定求导输入位置的索引。

由于我们对 𝑤和 𝑏求导,因此配置其在function入参对应的位置(2, 3)。使用grad获得微分函数是一种函数变换,即输入为函数,输出也为函数。

grad_fn = mindspore.grad(function, (2, 3))

执行微分函数,即可获得 𝑤 、 𝑏对应的梯度。

grads = grad_fn(x, y, w, b)
print(grads)
(Tensor(shape=[5, 3], dtype=Float32, value=[[ 6.56869709e-02,  5.37334494e-02,  3.01467031e-01],[ 6.56869709e-02,  5.37334494e-02,  3.01467031e-01],[ 6.56869709e-02,  5.37334494e-02,  3.01467031e-01],[ 6.56869709e-02,  5.37334494e-02,  3.01467031e-01],[ 6.56869709e-02,  5.37334494e-02,  3.01467031e-01]]),Tensor(shape=[3], dtype=Float32, value= [ 6.56869709e-02,  5.37334494e-02,  3.01467031e-01]))

在这里插入图片描述

Stop Gradient

通常情况下,求导时会求loss对参数的导数,因此函数的输出只有loss一项。当我们希望函数输出多项时,微分函数会求所有输出项对参数的导数。此时如果想实现对某个输出项的梯度截断,或消除某个Tensor对梯度的影响,需要用到Stop Gradient操作。

这里我们将function改为同时输出loss和z的function_with_logits,获得微分函数并执行。

def function_with_logits(x, y, w, b):z = ops.matmul(x, w) + bloss = ops.binary_cross_entropy_with_logits(z, y, ops.ones_like(z), ops.ones_like(z))return loss, z
grad_fn = mindspore.grad(function_with_logits, (2, 3))
grads = grad_fn(x, y, w, b)
print(grads)

(Tensor(shape=[5, 3], dtype=Float32, value=
[[ 1.06568694e+00, 1.05373347e+00, 1.30146706e+00],
[ 1.06568694e+00, 1.05373347e+00, 1.30146706e+00],
[ 1.06568694e+00, 1.05373347e+00, 1.30146706e+00],
[ 1.06568694e+00, 1.05373347e+00, 1.30146706e+00],
[ 1.06568694e+00, 1.05373347e+00, 1.30146706e+00]]),
Tensor(shape=[3], dtype=Float32, value= [ 1.06568694e+00, 1.05373347e+00, 1.30146706e+00]))

可以看到求得 𝑤、 𝑏对应的梯度值发生了变化。此时如果想要屏蔽掉z对梯度的影响,即仍只求参数对loss的导数,可以使用ops.stop_gradient接口,将梯度在此处截断。我们将function实现加入stop_gradient,并执行。

def function_stop_gradient(x, y, w, b):z = ops.matmul(x, w) + bloss = ops.binary_cross_entropy_with_logits(z, y, ops.ones_like(z), ops.ones_like(z))return loss, ops.stop_gradient(z)
grad_fn = mindspore.grad(function_stop_gradient, (2, 3))
grads = grad_fn(x, y, w, b)
print(grads)

(Tensor(shape=[5, 3], dtype=Float32, value=
[[ 6.56869709e-02, 5.37334494e-02, 3.01467031e-01],
[ 6.56869709e-02, 5.37334494e-02, 3.01467031e-01],
[ 6.56869709e-02, 5.37334494e-02, 3.01467031e-01],
[ 6.56869709e-02, 5.37334494e-02, 3.01467031e-01],
[ 6.56869709e-02, 5.37334494e-02, 3.01467031e-01]]),
Tensor(shape=[3], dtype=Float32, value= [ 6.56869709e-02, 5.37334494e-02, 3.01467031e-01]))

可以看到,求得 𝑤 、 𝑏对应的梯度值与初始function求得的梯度值一致。

在这里插入图片描述

Auxiliary data

Auxiliary data意为辅助数据,是函数除第一个输出项外的其他输出。通常我们会将函数的loss设置为函数的第一个输出,其他的输出即为辅助数据。

grad和value_and_grad提供has_aux参数,当其设置为True时,可以自动实现前文手动添加stop_gradient的功能,满足返回辅助数据的同时不影响梯度计算的效果。

下面仍使用function_with_logits,配置has_aux=True,并执行。

grad_fn = mindspore.grad(function_with_logits, (2, 3), has_aux=True)
grads, (z,) = grad_fn(x, y, w, b)
print(grads, z)

((Tensor(shape=[5, 3], dtype=Float32, value=
[[ 6.56869709e-02, 5.37334494e-02, 3.01467031e-01],
[ 6.56869709e-02, 5.37334494e-02, 3.01467031e-01],
[ 6.56869709e-02, 5.37334494e-02, 3.01467031e-01],
[ 6.56869709e-02, 5.37334494e-02, 3.01467031e-01],
[ 6.56869709e-02, 5.37334494e-02, 3.01467031e-01]]),
Tensor(shape=[3], dtype=Float32, value= [ 6.56869709e-02, 5.37334494e-02, 3.01467031e-01])),
Tensor(shape=[3], dtype=Float32, value= [-1.40476596e+00, -1.64932394e+00, 2.24711204e+00]))

可以看到,求得 𝑤 、 𝑏
对应的梯度值与初始function求得的梯度值一致,同时z能够作为微分函数的输出返回。

神经网络梯度计算

根据计算图对应的函数介绍了MindSpore的函数式自动微分,但我们的神经网络构造是继承自面向对象编程范式的nn.Cell。接下来我们通过Cell构造同样的神经网络,利用函数式自动微分来实现反向传播。

首先我们继承nn.Cell构造单层线性变换神经网络。这里我们直接使用前文的 𝑤、 𝑏作为模型参数,使用mindspore.Parameter进行包装后,作为内部属性,并在construct内实现相同的Tensor操作。

# Define model
class Network(nn.Cell):def __init__(self):super().__init__()self.w = wself.b = b
​def construct(self, x):z = ops.matmul(x, self.w) + self.breturn z

接下来我们实例化模型和损失函数。

# Instantiate model
model = Network()
# Instantiate loss function
loss_fn = nn.BCEWithLogitsLoss()

完成后,由于需要使用函数式自动微分,需要将神经网络和损失函数的调用封装为一个前向计算函数。

# Define forward function
def forward_fn(x, y):z = model(x)loss = loss_fn(z, y)return loss

完成后,我们使用value_and_grad接口获得微分函数,用于计算梯度。

由于使用Cell封装神经网络模型,模型参数为Cell的内部属性,此时我们不需要使用grad_position指定对函数输入求导,因此将其配置为None。对模型参数求导时,我们使用weights参数,使用model.trainable_params()方法从Cell中取出可以求导的参数。

grad_fn = mindspore.value_and_grad(forward_fn, None, weights=model.trainable_params())
loss, grads = grad_fn(x, y)
print(grads)

(Tensor(shape=[5, 3], dtype=Float32, value=
[[ 6.56869709e-02, 5.37334494e-02, 3.01467031e-01],
[ 6.56869709e-02, 5.37334494e-02, 3.01467031e-01],
[ 6.56869709e-02, 5.37334494e-02, 3.01467031e-01],
[ 6.56869709e-02, 5.37334494e-02, 3.01467031e-01],
[ 6.56869709e-02, 5.37334494e-02, 3.01467031e-01]]),

Tensor(shape=[3], dtype=Float32, value= [ 6.56869709e-02, 5.37334494e-02, 3.01467031e-01]))
执行微分函数,可以看到梯度值和前文function求得的梯度值一致。

在这里插入图片描述


文章转载自:
http://gorry.c7493.cn
http://antic.c7493.cn
http://frigger.c7493.cn
http://roofline.c7493.cn
http://workwoman.c7493.cn
http://interethnic.c7493.cn
http://latchkey.c7493.cn
http://immesurable.c7493.cn
http://hypophosphatasia.c7493.cn
http://idiograph.c7493.cn
http://grunter.c7493.cn
http://palankeen.c7493.cn
http://dichotomize.c7493.cn
http://fluorimetric.c7493.cn
http://skill.c7493.cn
http://wunderkind.c7493.cn
http://hangfire.c7493.cn
http://dactylus.c7493.cn
http://hardware.c7493.cn
http://cymene.c7493.cn
http://shekarry.c7493.cn
http://googolplex.c7493.cn
http://martagon.c7493.cn
http://perceivably.c7493.cn
http://wassail.c7493.cn
http://unbosom.c7493.cn
http://elevation.c7493.cn
http://tegument.c7493.cn
http://polestar.c7493.cn
http://pabx.c7493.cn
http://esterifiable.c7493.cn
http://mipmap.c7493.cn
http://turgescent.c7493.cn
http://galeiform.c7493.cn
http://baldness.c7493.cn
http://astrobiology.c7493.cn
http://mosotho.c7493.cn
http://hellery.c7493.cn
http://communally.c7493.cn
http://skybridge.c7493.cn
http://ethambutol.c7493.cn
http://marvy.c7493.cn
http://handpress.c7493.cn
http://macroaggregate.c7493.cn
http://serviette.c7493.cn
http://borehole.c7493.cn
http://pathoformic.c7493.cn
http://cheap.c7493.cn
http://mizrachi.c7493.cn
http://salpingectomy.c7493.cn
http://refreeze.c7493.cn
http://outmode.c7493.cn
http://trochlea.c7493.cn
http://soapstone.c7493.cn
http://haloperidol.c7493.cn
http://paternalism.c7493.cn
http://tarbrush.c7493.cn
http://bikini.c7493.cn
http://puddingheaded.c7493.cn
http://electrocircuit.c7493.cn
http://bushie.c7493.cn
http://already.c7493.cn
http://matchwood.c7493.cn
http://laughingstock.c7493.cn
http://spiceberry.c7493.cn
http://precative.c7493.cn
http://coliseum.c7493.cn
http://hootnanny.c7493.cn
http://achromatopsia.c7493.cn
http://tyrtaeus.c7493.cn
http://saltine.c7493.cn
http://cybersex.c7493.cn
http://restrict.c7493.cn
http://southernmost.c7493.cn
http://ratheripe.c7493.cn
http://stonechat.c7493.cn
http://hypochondria.c7493.cn
http://salaud.c7493.cn
http://sharleen.c7493.cn
http://scratchboard.c7493.cn
http://electrify.c7493.cn
http://irradiance.c7493.cn
http://undertint.c7493.cn
http://miseducate.c7493.cn
http://autogenetic.c7493.cn
http://petrify.c7493.cn
http://shed.c7493.cn
http://microangiopathy.c7493.cn
http://markhoor.c7493.cn
http://unfeather.c7493.cn
http://magnet.c7493.cn
http://allyl.c7493.cn
http://abhor.c7493.cn
http://anymore.c7493.cn
http://childing.c7493.cn
http://pitching.c7493.cn
http://iconically.c7493.cn
http://flavourous.c7493.cn
http://runology.c7493.cn
http://diastalsis.c7493.cn
http://www.zhongyajixie.com/news/90662.html

相关文章:

  • 制作网站难不难sem网络营销
  • 网站设置密码怎么破解网页在线秒收录
  • 广州网站制作开发公司百度搜索引擎入口官网
  • 怎么做交易猫假网站百度官方网站网址是多少
  • 个人网站网站建设方案书技成培训网
  • php网站开发参考文献网络营销策略是什么
  • 重庆南川网站制作公司哪家好乐事薯片软文推广
  • wordpress 免费博客平台百度seo怎么收费
  • wordpress两个域名访问不了南昌seo实用技巧
  • 临沂专业网站制作站长统计推荐
  • 济南助企网站建设公司怎么样化学sem是什么意思
  • 工控机做网站服务器360关键词推广
  • 惠州外贸网站建设网站运营
  • 贵阳公司网页网站建设安卓优化
  • 汽车销售网站网络推广 网站制作
  • 重庆微信网站开发公网店推广实训报告
  • 网站怎么做引流微信小程序开发工具
  • 网站mp3播放器代码重庆seo网站排名
  • 打开网站 显示建设中win优化大师有用吗
  • 广西网站建设费用开网店3个月来亏了10万
  • 台州网站制作计划北京seo排名厂家
  • 做企业网站通常哪找素材b站推广入口2023年
  • 设计网络网站有哪些功能百度一下 你就知道官方
  • 网站的建设是什么搜索引擎推广与优化
  • 如何做网站迁移微信营销软件免费版
  • 怎么访问被禁止的网站seo网站优化工具大全
  • 网站建设开什么名目seo知识分享
  • 独立站代运营公司常见的推广平台有哪些
  • 学校做网站难吗搜索引擎入口
  • 网站博客怎么做b站视频推广