当前位置: 首页 > news >正文

青岛做网站电话内江seo

青岛做网站电话,内江seo,bootstrap风格网站,wordpress自定义链接文章目录 1. 引言2. 梯度法3. 例子4. 代码实现5. 讨论 — 学习率 η \eta η5.1 当 η \eta η 设置过大5.2 当 η \eta η 设置过小 参考 1. 引言 梯度下降法,可以根据微分求出的斜率计算函数的最小值。 在人工智能中,经常被应用于学习算法。 2. 梯…

文章目录

1. 引言

梯度下降法,可以根据微分求出的斜率计算函数的最小值。
在人工智能中,经常被应用于学习算法。

2. 梯度法

梯度法 是根据函数的微分值(斜率)搜索最小值的算法。

梯度下降法也是一种梯度法,它通过向最陡方向下降来查找最小值。

给定一个多变量函数:
f ( x ) = f ( x 1 , x 2 , … , x i , … , x n ) . f(x) = f(x_1, x_2, \dots, x_i, \dots, x_n). f(x)=f(x1,x2,,xi,,xn).
首先为 x x x 赋予一个合适的初始值,然后通过下面的表达式进行更新:
x i t + 1 = x i t − η ∂ f ( x ) ∂ x i . x^{t+1}_i = x^{t}_i - \eta \frac{\partial f(x)}{\partial x_i}. xit+1=xitηxif(x).

其中, ∂ f ( x ) ∂ x i \displaystyle \frac{\partial f(x)}{\partial x_i} xif(x) 表示函数 f ( x ) f(x) f(x) 对变量 x i x_i xi 的偏导数。 x i t x^{t}_i xit 表示第 t t t 次迭代时变量 x i x_i xi 的取值, x i t + 1 x^{t+1}_i xit+1 表示第 t + 1 t+1 t+1 次迭代时变量 x i x_i xi 的取值。需要说明的是, t t t 是一个非负整数,也即是 t ∈ N t \in \mathbb{N} tN

η \eta η 是一个重要的参数,被称为学习系数或学习率的常数。 η \eta η 决定了 x i x_i xi 的更新速度。可以理解为,一个人 P 要从 A 点走到 B 点,, η \eta η 就是 P 走路时每一步的跨步大小,也称为步长。

根据该表达式, ∂ f ( x ) ∂ x i \displaystyle \frac{\partial f(x)}{\partial x_i} xif(x) 越大,也即是坡度越陡, x i x_i xi 值的变化就越大。

重复此操作,直到 f ( x ) f(x) f(x) 停止变化,那么此时 f ( x ) f(x) f(x) 的值就是 min ⁡ f ( x ) \min f(x) minf(x)

3. 例子

给定一个单变量函数 f ( x ) f(x) f(x)
f ( x ) = x 2 − 2 x . f(x)= x^2 - 2x. f(x)=x22x.
f ( x ) f(x) f(x) 的最小值。

:函数 f ( x ) f(x) f(x) 的导数记为 f ′ ( x ) f'(x) f(x)
f ′ ( x ) = d f ( x ) d x = 2 x − 2. f'(x)=\frac{\mathrm{d} f(x)}{\mathrm{d} x}=2x-2. f(x)=dxdf(x)=2x2.
f ′ ( x ) = 0 f'(x)=0 f(x)=0,则
f ′ ( x ) = 0 ⇒ 2 x − 2 = 0 x = 1. \begin{aligned} f'(x) =0 \Rightarrow 2x-2 & = 0 \\ x & = 1. \\ \end{aligned} f(x)=02x2x=0=1.
即当 x = 1 x=1 x=1 处, f ( x ) f(x) f(x) 的导数 f ′ ( x ) f'(x) f(x) 为 0。

x = 1 x=1 x=1 带入到 f ( x ) f(x) f(x) 中,得到:
f min ⁡ ( x ) = f ( x = 1 ) = 1 2 − 2 ∗ 1 = − 1. f_{\min}(x)=f(x=1)=1^2-2*1=-1. fmin(x)=f(x=1)=1221=1.

f ( x ) f(x) f(x) 的最小值在 x = 1 x=1 x=1 处取得,最小值为 -1。


下面通过模拟梯度下降法来求解。

假设 x x x 的初始值为 2,即 x 0 = 2 x^0=2 x0=2,令学习率 η = 0.1 \eta=0.1 η=0.1

次数 t t t变量 x t x^t xt导数 f ′ ( x t ) = 2 x t − 2 f'(x^t)=2x^t-2 f(xt)=2xt2函数 f ( x t ) = ( x t ) 2 − 2 x t f(x^t)=(x^t)^2-2x^t f(xt)=(xt)22xt更新 x t + 1 x^{t+1} xt+1
0 x 0 = 2 x^0=2 x0=2 f ′ ( x 0 ) = 2 ∗ 2 − 2 = 2 f'(x^0)=2*2-2=2 f(x0)=222=2 f ( x 0 ) = 2 2 − 2 ∗ 2 = 0 f(x^0)=2^2-2*2=0 f(x0)=2222=0 x 1 = 2 − 0.1 ∗ 2 = 1.8 x^1=2-0.1*2=1.8 x1=20.12=1.8
1 x 1 = 1.8 x^1=1.8 x1=1.8 f ′ ( x 1 ) = 2 ∗ 1.8 − 2 = 1.6 f'(x^1)=2*1.8-2=1.6 f(x1)=21.82=1.6 f ( x 1 ) = 1. 6 2 − 2 ∗ 1.6 = − 0.64 f(x^1)=1.6^2-2*1.6=-0.64 f(x1)=1.6221.6=0.64 x 2 = 1.8 − 0.1 ∗ 1.6 = 1.64 x^2=1.8-0.1*1.6=1.64 x2=1.80.11.6=1.64
2 x 2 = 1.64 x^2=1.64 x2=1.64 f ′ ( x 2 ) = 2 ∗ 1.64 − 2 = 1.28 f'(x^2)=2*1.64-2=1.28 f(x2)=21.642=1.28 f ( x 2 ) = 1.6 4 2 − 2 ∗ 1.64 = − 0.5904 f(x^2)=1.64^2-2*1.64=-0.5904 f(x2)=1.64221.64=0.5904 x 3 = 1.64 − 0.1 ∗ 1.28 = 1.512 x^3=1.64-0.1*1.28=1.512 x3=1.640.11.28=1.512
3 x 3 = 1.512 x^3=1.512 x3=1.512 f ′ ( x 3 ) = 2 ∗ 1.512 − 2 = 1.024 f'(x^3)=2*1.512-2=1.024 f(x3)=21.5122=1.024 f ( x 3 ) = 1.51 2 2 − 2 ∗ 1.512 = − 0.7379 f(x^3)=1.512^2-2*1.512=-0.7379 f(x3)=1.512221.512=0.7379 x 4 = 1.512 − 0.1 ∗ 1.024 = 1.4096 x^4=1.512-0.1*1.024=1.4096 x4=1.5120.11.024=1.4096
4 x 4 = 1.4096 x^4=1.4096 x4=1.4096 … \dots … \dots … \dots

根据梯度下降法的公式进行计算,可以得到上面的表格。可以观察到,导数 f ′ ( x ) f'(x) f(x) 的值越来越小。继续计算上面的表, x x x 的值会越来越小,逐渐逼近 1。当 f ′ ( x ) = 0 f'(x)=0 f(x)=0 时, x = 1 x=1 x=1,此时 f ( x ) = − 1 f(x)=-1 f(x)=1

4. 代码实现

我们利用 Python 代码可以模拟上面的梯度下降过程。

定义一个函数,表示 f ( x ) f(x) f(x)

def my_func(x):"""$y = x^2 - 2x$:param x: 变量:return: 函数值"""return x**2 - 2*x

变量 x 对应于 x x x,my_func() 的结果(返回值)对应于 f ( x ) f(x) f(x)

再定义一个函数,表示 f ′ ( x ) f'(x) f(x)

def grad_func(x):"""函数 $y = x^2 - 2x$ 的导数:param x: 变量:return: 导数值"""return 2*x - 2

变量 x 对应于 x x x,grad_func() 的结果(返回值)对应于 f ′ ( x ) f'(x) f(x)

给定一个学习率 η \eta η,给定一个 x x x 的初始值

eta = 0.1
x = 4.0

那么就可以开始模拟梯度下降法求解最小值。

import numpy as np
import matplotlib.pyplot as pltdef my_func(x):"""$y = x^2 - 2x$:param x: 变量:return: 函数值"""return x**2 - 2*xdef grad_func(x):"""函数 $y = x^2 - 2x$ 的导数:param x: 变量:return: 导数值"""return 2*x - 2eta = 0.1
x = 4.0
record_x = []
record_y = []for i in range(20):y = my_func(x)record_x.append(x)record_y.append(y)x -= eta * grad_func(x)print(np.round(record_x, 4))
print(np.round(record_y, 4))x_f = np.linspace(-2, 4)
y_f = my_func(x_f)plt.plot(x_f, y_f, linestyle='--', color='red')
plt.scatter(record_x, record_y)plt.xlabel('x', size=14)
plt.ylabel('y', size=14)
plt.grid()
plt.show()

x x x 的变化过程为:

[4. 3.4 2.92 2.536 2.2288 1.983 1.7864 1.6291 1.5033 1.4027 1.3221 1.2577 1.2062 1.1649 1.1319 1.1056 1.0844 1.0676 1.054 1.0432]

f ( x ) f(x) f(x) 的变化过程为:

[ 8. 4.76 2.6864 1.3593 0.5099 -0.0336 -0.3815 -0.6042 -0.7467 -0.8379 -0.8962 -0.9336 -0.9575 -0.9728 -0.9826 -0.9889 -0.9929 -0.9954 -0.9971 -0.9981]

我们使用了 matplotlib 可视化函数 f ( x ) f(x) f(x) 的图像,以及梯度下降法求解的过程。

在这里插入图片描述

红色虚线是函数 f ( x ) f(x) f(x) 的图像。

蓝色点表示梯度下降法求解过程中 f ( x ) f(x) f(x) 的值。

5. 讨论 — 学习率 η \eta η

学习率 η \eta η)是一个非常重要的参数。有多重要呢?请接着看……

在上面的例子中,我们设置学习率为 0.1,即 η = 0.1 \eta = 0.1 η=0.1。同样的以上面的例子为例,我们修改学习率。

5.1 当 η \eta η 设置过大

设置 η = 1 \eta = 1 η=1 x x x 的初始值保持一致,仍取值 4.0。

eta = 1
x = 4.0

那么,再一次利用梯度下降法求解,
x x x 的变化过程为:

[ 4. -2. 4. -2. 4. -2. 4. -2. 4. -2. 4. -2. 4. -2. 4. -2. 4. -2. 4. -2.]

f ( x ) f(x) f(x) 的变化过程为:

[8. 8. 8. 8. 8. 8. 8. 8. 8. 8. 8. 8. 8. 8. 8. 8. 8. 8. 8. 8.]

可视化结果为:

在这里插入图片描述

上面的输出结果和图像都可以看出, x x x f ( x ) f(x) f(x) 的结果在循环,始终无法得到正确结果,进入了死循环。

5.2 当 η \eta η 设置过小

设置 η = 0.01 \eta = 0.01 η=0.01 x x x 的初始值保持一致,仍取值 4.0。

eta = 0.01
x = 4.0

那么,再一次利用梯度下降法求解,
x x x 的变化过程为:

[4. 3.94 3.8812 3.8236 3.7671 3.7118 3.6575 3.6044 3.5523 3.5012 3.4512 3.4022 3.3542 3.3071 3.2609 3.2157 3.1714 3.128 3.0854 3.0437]

f ( x ) f(x) f(x) 的变化过程为:

[8. 7.6436 7.3013 6.9726 6.6569 6.3537 6.0625 5.7828 5.5142 5.2562 5.0085 4.7705 4.542 4.3226 4.1118 3.9094 3.7149 3.5282 3.3489 3.1767]

可视化结果为:

在这里插入图片描述

上面的输出结果和图像都可以看出,梯度下降法在正确工作。但是求解过程很缓慢,离最小值还有一段距离。此时需要增加循环轮次,消耗更多的资源。

总结:需要设置合理的学习率 η \eta η,过大或过小都不好。

参考

-《用Python编程和实践!数学教科书》


文章转载自:
http://kerfuffle.c7497.cn
http://cheapie.c7497.cn
http://brocage.c7497.cn
http://yarwhelp.c7497.cn
http://geriatrician.c7497.cn
http://yazoo.c7497.cn
http://dawn.c7497.cn
http://convoy.c7497.cn
http://referral.c7497.cn
http://schoolboy.c7497.cn
http://ingather.c7497.cn
http://closefisted.c7497.cn
http://backroom.c7497.cn
http://usquebaugh.c7497.cn
http://amberlite.c7497.cn
http://occultist.c7497.cn
http://zinlac.c7497.cn
http://allocation.c7497.cn
http://unilateralism.c7497.cn
http://afterglow.c7497.cn
http://televiewer.c7497.cn
http://matriarchy.c7497.cn
http://indifferentism.c7497.cn
http://beamwidth.c7497.cn
http://temporize.c7497.cn
http://rebaptism.c7497.cn
http://interlope.c7497.cn
http://incensation.c7497.cn
http://isotactic.c7497.cn
http://tidology.c7497.cn
http://parrot.c7497.cn
http://astringe.c7497.cn
http://landsick.c7497.cn
http://milkweed.c7497.cn
http://eeriness.c7497.cn
http://sunwards.c7497.cn
http://mitred.c7497.cn
http://sinuosity.c7497.cn
http://nonboarding.c7497.cn
http://lavvy.c7497.cn
http://asthenia.c7497.cn
http://inapplication.c7497.cn
http://insolvent.c7497.cn
http://sublimize.c7497.cn
http://koso.c7497.cn
http://splurge.c7497.cn
http://partite.c7497.cn
http://endorsor.c7497.cn
http://illuminism.c7497.cn
http://romeward.c7497.cn
http://receptorology.c7497.cn
http://rectangular.c7497.cn
http://jostler.c7497.cn
http://mesorrhine.c7497.cn
http://grampus.c7497.cn
http://remould.c7497.cn
http://progestin.c7497.cn
http://tremor.c7497.cn
http://denigrate.c7497.cn
http://ravage.c7497.cn
http://speciality.c7497.cn
http://settee.c7497.cn
http://archaeopteryx.c7497.cn
http://metastable.c7497.cn
http://mithril.c7497.cn
http://lore.c7497.cn
http://charybdis.c7497.cn
http://arithmetically.c7497.cn
http://curry.c7497.cn
http://daubry.c7497.cn
http://unsyllabic.c7497.cn
http://immaculacy.c7497.cn
http://unrig.c7497.cn
http://anaphora.c7497.cn
http://catfoot.c7497.cn
http://whippy.c7497.cn
http://oxyparaffin.c7497.cn
http://underpass.c7497.cn
http://zoetrope.c7497.cn
http://unreported.c7497.cn
http://wickliffe.c7497.cn
http://anticancer.c7497.cn
http://vinylbenzene.c7497.cn
http://hobart.c7497.cn
http://arthralgic.c7497.cn
http://kiva.c7497.cn
http://chalk.c7497.cn
http://aromatic.c7497.cn
http://eytie.c7497.cn
http://patrolwoman.c7497.cn
http://benignant.c7497.cn
http://granuloma.c7497.cn
http://organogenesis.c7497.cn
http://novice.c7497.cn
http://silkaline.c7497.cn
http://dunbarton.c7497.cn
http://latino.c7497.cn
http://unmechanized.c7497.cn
http://cremation.c7497.cn
http://anthroposophy.c7497.cn
http://www.zhongyajixie.com/news/92841.html

相关文章:

  • 云南网站建设哪家强seo数据统计分析工具有哪些
  • 文化传播网站建设印度疫情为何突然消失
  • 医院网站建设 中企动力百度快照
  • 嘉善网站制作公司网站建设需要多少钱
  • 风中有朵雨做的云电影网站公众号seo排名优化
  • 东莞 营销网站制作关键词检测
  • wordpress头像上传南宁网站seo外包
  • 企业如何注册网站素材网
  • 企业营销型网站建设开发手机百度账号登录入口
  • 网站建设项目推文营销顾问
  • 网站设计专业公司价格近日发生的重大新闻
  • 郴州网站建设哪个好互联网推广
  • 青浦营销型网站建设竞价推广外包托管
  • 做菠菜网站好赚吗营销网页
  • wordpress 系统找不到指定的文件.合肥seo排名扣费
  • 网站设计需要哪些哈尔滨seo关键词
  • 网站关于我们怎么做单页面模板怎么用手机创建网站
  • 如何做网站免费企业百度推广
  • wordpress轻博客模板网站seo优化分析
  • 关于加强政府网站建设的意见2021最近最火的关键词
  • 荣誉章标志做网站推广软文发稿
  • 小程序介绍范文淘宝优化标题都是用什么软件
  • 可以做bim实操题的网站谷歌seo课程
  • 南京 推广 网站建设网站注册信息查询
  • 江苏省公路与水路建设网站南宁seo内部优化
  • 南昌媒体网站建设口碑推荐附近电脑培训学校
  • wordpress开启多站点模式今日疫情实时数据
  • 苏州做i网站的网站快速建站
  • 简单网站html模板下载地址优化网站搜索
  • 移动网站做微信小程序自己做网站