当前位置: 首页 > news >正文

做标书有什么好的网站吗百度口碑网

做标书有什么好的网站吗,百度口碑网,网站免费建设,云网站建设 优帮云文章目录 归一化批量归一化预测阶段 测试阶段γ和β(注意)举例 层归一化前向传播反向传播 归一化 批量归一化 (Batch Normalization)在训练过程中的数学公式可以概括如下: 给定一个小批量数据 B { x 1 , x 2 , … …

文章目录

    • 归一化
      • 批量归一化
        • 预测阶段
      • 测试阶段
        • γ和β(注意)
        • 举例
      • 层归一化
        • 前向传播
        • 反向传播


归一化

批量归一化

在这里插入图片描述在这里插入图片描述在这里插入图片描述

(Batch Normalization)在训练过程中的数学公式可以概括如下:

给定一个小批量数据 B = { x 1 , x 2 , … , x m } B = \{x_1, x_2, \ldots, x_m\} B={x1,x2,,xm},其中 m m m 是批次的大小。

  1. 计算均值:计算小批量数据的均值。
    μ B = 1 m ∑ i = 1 m x i \mu_B = \frac{1}{m} \sum_{i=1}^{m} x_i μB=m1i=1mxi

  2. 计算方差:计算小批量数据的方差。
    σ B 2 = 1 m ∑ i = 1 m ( x i − μ B ) 2 \sigma_B^2 = \frac{1}{m} \sum_{i=1}^{m} (x_i - \mu_B)^2 σB2=m1i=1m(xiμB)2

  3. 归一化:使用均值和方差对小批量数据进行标准化。
    x ^ i = x i − μ B σ B 2 + ϵ \hat{x}_i = \frac{x_i - \mu_B}{\sqrt{\sigma_B^2 + \epsilon}} x^i=σB2+ϵ xiμB
    其中, ϵ \epsilon ϵ 是一个小的常数,用于确保分母不为零。

  4. 缩放和平移:使用可学习的参数伽玛 γ \gamma γ和贝塔 β \beta β来缩放和平移标准化的数据。
    y i = γ x ^ i + β y_i = \gamma \hat{x}_i + \beta yi=γx^i+β
    其中, γ \gamma γ β \beta β 是可学习的参数,用于调整归一化的缩放和平移。

这样做可以让模型有更大的灵活性,因为它可以学习到每个特征或通道应该如何被归一化。

预测阶段

在推断阶段,使用整个训练集的均值和方差(通常是移动平均)来替代小批量的均值和方差。这确保了网络在推断时的行为与训练时的行为更加一致。

在批量归一化中,移动平均均值和方差是在训练阶段计算并用于预测阶段的归一化过程。移动平均的计算通常使用指数移动平均(EMA)或其他平滑方法。下面是计算移动平均均值和方差的一般过程:

  1. 初始化:在训练开始时,初始化移动平均均值和方差为零或其他初始值。

  2. 计算当前批次的均值和方差:对于每个训练批次,计算该批次数据的均值和方差。

  3. 更新移动平均:使用当前批次的均值和方差以及之前的移动平均值来更新移动平均。通常,这可以通过下面的公式完成:

    移动平均均值 = m o m e n t u m × 移动平均均值 + ( 1 − m o m e n t u m ) × 当前批次均值 \text{移动平均均值} = momentum \times \text{移动平均均值} + (1 - momentum) \times \text{当前批次均值} 移动平均均值=momentum×移动平均均值+(1momentum)×当前批次均值
    移动平均方差 = m o m e n t u m × 移动平均方差 + ( 1 − m o m e n t u m ) × 当前批次方差 \text{移动平均方差} = momentum \times \text{移动平均方差} + (1 - momentum) \times \text{当前批次方差} 移动平均方差=momentum×移动平均方差+(1momentum)×当前批次方差

    其中, m o m e n t u m momentum momentum 是一个超参数,通常在 0 到 1 之间,通常设置为接近 1 的值(例如 0.9),决定了移动平均的平滑程度。较小的 m o m e n t u m momentum momentum 值会使移动平均更关注最近的批次,而较大的值则会使其更平滑。

  4. 使用当前mini-batch的均值和方差对数据进行归一化,并通过可学习的参数 γ γ γ β β β 进行缩放和偏移。

BN ( x i ) = γ ( x i − μ B σ B 2 + ϵ ) + β \text{BN}(x_i) = \gamma \left( \frac{x_i - \mu_B}{\sqrt{\sigma_B^2 + \epsilon}} \right) + \beta BN(xi)=γ(σB2+ϵ xiμB)+β

测试阶段

在测试阶段,使用训练期间计算的运行均值和方差进行归一化:

BN ( x i ) = γ ( x i − μ running σ running 2 + ϵ ) + β \text{BN}(x_i) = \gamma \left( \frac{x_i - \mu_{\text{running}}}{\sqrt{\sigma_{\text{running}}^2 + \epsilon}} \right) + \beta BN(xi)=γ(σrunning2+ϵ xiμrunning)+β

通过这种方式,批量归一化可以在测试阶段更稳定和准确地归一化数据。

γ和β(注意)

在批量归一化中, γ \gamma γ β \beta β 不是单一的数值,而是可以学习的参数向量。其维度与正在被归一化的数据的维度相同。这样可以确保每个特征有其自己的 γ \gamma γ β \beta β 参数,可以独立地进行缩放和偏移。

具体来说:

  • 在全连接层中,如果该层有 d d d 个神经元,那么 γ \gamma γ β \beta β 将是 d d d 维向量。
  • 在卷积层中,如果卷积层有 c c c 个通道,那么 γ \gamma γ β \beta β 将是 c c c 维向量,每个通道有一个 γ \gamma γ β \beta β 值。
举例

以下是按照10个样本,20个特征,计算移动平均方差的步骤:

  1. 初始化移动平均方差:在训练开始时,为每个特征初始化一个移动平均方差值。可以将其设置为零或其他初始值。你将得到一个具有20个元素的移动平均方差向量。

  2. 对于每个批次:对于每个训练批次,执行以下步骤:

    a. 计算当前批次的方差:按照之前的方法计算当前批次的方差。结果将是一个包含20个方差值的向量。

    b. 更新移动平均方差:使用以下公式来更新每个特征的移动平均方差:

移动平均方差 j = m o m e n t u m × 移动平均方差 j + ( 1 − m o m e n t u m ) × 当前批次方差 j \text{移动平均方差}_j = momentum \times \text{移动平均方差}_j + (1 - momentum) \times \text{当前批次方差}_j 移动平均方差j=momentum×移动平均方差j+(1momentum)×当前批次方差j

其中, m o m e n t u m momentum momentum 是一个超参数,通常在 0 到 1 之间,表示移动平均的平滑程度。这个过程会为每个特征更新移动平均方差。

  1. 预测时使用:在预测阶段,使用最终计算的移动平均方差向量来归一化新样本。

在批量归一化中,每个特征都有其自己的移动平均均值和移动平均方差。这些值是在训练过程中单独计算和跟踪的。

由于不同的特征可能具有不同的尺度和分布,因此为每个特征单独计算均值和方差是有意义的。这样可以确保在整个训练集中,每个特征都被归一化到具有相同的均值和方差,从而有助于提高训练的稳定性和效率。

层归一化

(Layer Normalization)是一种归一化技术,常用于深度学习模型中。下面我们来详细了解层归一化的前向传播和反向传播过程。

前向传播

给定输入向量 x x x,层归一化的前向传播包括以下步骤:

  1. 计算均值:计算输入 x x x 中所有特征的均值。
    μ = 1 d ∑ i = 1 d x i \mu = \frac{1}{d} \sum_{i=1}^{d} x_i μ=d1i=1dxi

  2. 计算方差:计算输入 x x x 中所有特征的方差。
    σ 2 = 1 d ∑ i = 1 d ( x i − μ ) 2 \sigma^2 = \frac{1}{d} \sum_{i=1}^{d} (x_i - \mu)^2 σ2=d1i=1d(xiμ)2

  3. 归一化:使用均值和方差对输入 x x x 进行标准化。
    x ^ i = x i − μ σ 2 + ϵ \hat{x}_i = \frac{x_i - \mu}{\sqrt{\sigma^2 + \epsilon}} x^i=σ2+ϵ xiμ

  4. 缩放和平移:使用可学习的参数伽玛 γ \gamma γ和贝塔 β \beta β来缩放和平移标准化的数据。
    y i = γ x ^ i + β y_i = \gamma \hat{x}_i + \beta yi=γx^i+β

反向传播

反向传播需要计算损失函数 L L L 对输入 x x x、伽玛 γ \gamma γ和贝塔 β \beta β的偏导数。以下是相关的偏导数计算:

  1. 对伽玛和贝塔的偏导数
    ∂ L ∂ γ = ∑ i = 1 d ∂ L ∂ y i x ^ i , ∂ L ∂ β = ∑ i = 1 d ∂ L ∂ y i \frac{\partial L}{\partial \gamma} = \sum_{i=1}^{d} \frac{\partial L}{\partial y_i} \hat{x}_i, \quad \frac{\partial L}{\partial \beta} = \sum_{i=1}^{d} \frac{\partial L}{\partial y_i} γL=i=1dyiLx^i,βL=i=1dyiL

  2. 对归一化输入的偏导数
    ∂ L ∂ x ^ i = ∂ L ∂ y i γ \frac{\partial L}{\partial \hat{x}_i} = \frac{\partial L}{\partial y_i} \gamma x^iL=yiLγ

  3. 对方差的偏导数
    ∂ L ∂ σ 2 = 1 2 ∑ i = 1 d ∂ L ∂ x ^ i 1 σ 2 + ϵ ( x i − μ ) \frac{\partial L}{\partial \sigma^2} = \frac{1}{2} \sum_{i=1}^{d} \frac{\partial L}{\partial \hat{x}_i} \frac{1}{\sqrt{\sigma^2 + \epsilon}} (x_i - \mu) σ2L=21i=1dx^iLσ2+ϵ 1(xiμ)

  4. 对均值的偏导数
    ∂ L ∂ μ = ∑ i = 1 d ∂ L ∂ x ^ i − 1 σ 2 + ϵ − 2 d ∂ L ∂ σ 2 ( μ − x i ) \frac{\partial L}{\partial \mu} = \sum_{i=1}^{d} \frac{\partial L}{\partial \hat{x}_i} \frac{-1}{\sqrt{\sigma^2 + \epsilon}} - \frac{2}{d} \frac{\partial L}{\partial \sigma^2} (\mu - x_i) μL=i=1dx^iLσ2+ϵ 1d2σ2L(μxi)

  5. 对输入的偏导数
    ∂ L ∂ x i = ∂ L ∂ x ^ i 1 σ 2 + ϵ + 2 d ∂ L ∂ σ 2 ( x i − μ ) + 1 d ∂ L ∂ μ \frac{\partial L}{\partial x_i} = \frac{\partial L}{\partial \hat{x}_i} \frac{1}{\sqrt{\sigma^2 + \epsilon}} + \frac{2}{d} \frac{\partial L}{\partial \sigma^2} (x_i - \mu) + \frac{1}{d} \frac{\partial L}{\partial \mu} xiL=x^iLσ2+ϵ 1+d2σ2L(xiμ)+d1μL

这些偏导数可以通过链式法则和上述前向传播步骤计算,从而实现层归一化的反向传播。这样就可以在训练过程中更新模型参数,并通过梯度下降或其他优化算法进行优化。


文章转载自:
http://urokinase.c7624.cn
http://drawshave.c7624.cn
http://tripedal.c7624.cn
http://foliage.c7624.cn
http://phoenician.c7624.cn
http://dengue.c7624.cn
http://intramarginal.c7624.cn
http://rillet.c7624.cn
http://fig.c7624.cn
http://campo.c7624.cn
http://assoeted.c7624.cn
http://saturn.c7624.cn
http://imf.c7624.cn
http://autolysin.c7624.cn
http://carbuncular.c7624.cn
http://clock.c7624.cn
http://untitled.c7624.cn
http://phosgene.c7624.cn
http://exoderm.c7624.cn
http://extensively.c7624.cn
http://scaleboard.c7624.cn
http://occidentalise.c7624.cn
http://couvade.c7624.cn
http://gramme.c7624.cn
http://joking.c7624.cn
http://toxicologically.c7624.cn
http://gathering.c7624.cn
http://tunic.c7624.cn
http://cobelligerence.c7624.cn
http://inquisitorial.c7624.cn
http://zedzap.c7624.cn
http://reenaction.c7624.cn
http://undertook.c7624.cn
http://edinburgh.c7624.cn
http://epichorial.c7624.cn
http://university.c7624.cn
http://unhelm.c7624.cn
http://fraternise.c7624.cn
http://princely.c7624.cn
http://exasperater.c7624.cn
http://gauntry.c7624.cn
http://full.c7624.cn
http://postlude.c7624.cn
http://expansively.c7624.cn
http://unmounted.c7624.cn
http://mock.c7624.cn
http://turf.c7624.cn
http://lactam.c7624.cn
http://guano.c7624.cn
http://cycloolefin.c7624.cn
http://lapdog.c7624.cn
http://calls.c7624.cn
http://ayuntamiento.c7624.cn
http://frivolity.c7624.cn
http://indiaman.c7624.cn
http://unseasoned.c7624.cn
http://inside.c7624.cn
http://smegma.c7624.cn
http://citybilly.c7624.cn
http://gunning.c7624.cn
http://dissector.c7624.cn
http://phillip.c7624.cn
http://intelligencer.c7624.cn
http://anaphylactoid.c7624.cn
http://centaurae.c7624.cn
http://misadventure.c7624.cn
http://hosepipe.c7624.cn
http://circumgyration.c7624.cn
http://lowlife.c7624.cn
http://archdeaconship.c7624.cn
http://mammifer.c7624.cn
http://puzzlement.c7624.cn
http://baltic.c7624.cn
http://biorheology.c7624.cn
http://falderal.c7624.cn
http://boart.c7624.cn
http://christogram.c7624.cn
http://gummiferous.c7624.cn
http://broederbond.c7624.cn
http://zoonosis.c7624.cn
http://tristeza.c7624.cn
http://multipad.c7624.cn
http://honeybunch.c7624.cn
http://cadaver.c7624.cn
http://overplease.c7624.cn
http://solidaric.c7624.cn
http://minifloppy.c7624.cn
http://lithophyl.c7624.cn
http://heterotactic.c7624.cn
http://corundum.c7624.cn
http://epicurean.c7624.cn
http://kinesthesia.c7624.cn
http://westy.c7624.cn
http://zooplankton.c7624.cn
http://endarterium.c7624.cn
http://jamboree.c7624.cn
http://titanium.c7624.cn
http://somewise.c7624.cn
http://act.c7624.cn
http://messy.c7624.cn
http://www.zhongyajixie.com/news/102249.html

相关文章:

  • 程序员网站建设手机系统流畅神器
  • WordPress仿w3c主题郑州seo公司哪家好
  • b2b网站建设费用淘宝怎么做引流和推广
  • 网站域名 如何选择营销渠道策划方案
  • 满城网站建设旺道seo推广
  • 旅游景点网站模板东莞网站seo推广
  • 如何搭建一个购物网站产品推广文案100字
  • wordpress主题图片消失网站seo推广方案
  • 南京建设网站方案seo推广外包报价表
  • 做网站需要审核资质吗直播网站排名
  • 杭州网站建设上海优化营商环境
  • 侵入别人的网站怎么做广东seo推广
  • 手机网站建设视频seo效果分析
  • 扬州门户网站开发临沂网站建设
  • 淘宝客怎么做自己网站推广全国唯一一个没有疫情的城市
  • 找人做企业网站注意啥网站建设推广服务
  • 一学一做共青团网站seo建站技巧
  • 网站怎么样被百度收录百度排名优化工具
  • 司法鉴定网站建设的内容周口seo公司
  • 北京网站制作收费标准sem代运营托管公司
  • 教育 企业 重庆网站建设seo公司厦门
  • 做思路导图的网站manageseo网站关键词优化机构
  • wix做网站教程太原百度快速优化排名
  • seo技术最新黑帽排名优化公司电话
  • c 做网站教程网站优化包括对什么优化
  • 工厂管理软件哪个好常德seo快速排名
  • 福田蒙派克6座上蓝牌京牌seo自学网站
  • 海口公司网站建设关键词优化公司网站
  • 网站建设教程简笔画排名优化推广
  • 网站的网站建设公司哪家好三亚百度推广公司