当前位置: 首页 > news >正文

合肥知名建站公司seo美式

合肥知名建站公司,seo美式,华为云免费服务器,网站建设宝安元学习通俗的来说,就是去学习如何学习(Learning to learn),掌握学习的方法,有时候掌握学习的方法比刻苦学习更重要! 下面我们进行详细讲解 1. 从传统机器学习到元学习 传统的机器学中,我们选择一个算法&…

元学习通俗的来说,就是去学习如何学习(Learning to learn),掌握学习的方法,有时候掌握学习的方法比刻苦学习更重要!

下面我们进行详细讲解

1. 从传统机器学习到元学习

传统的机器学中,我们选择一个算法�F,把数据放进去,学出来一组参数�θ,在测试数据上用,得出结果。如图:

 基于这种思想,我们能不能学�F呢

当然可以了!现在 我们的目标就是去学习�F

如上图,A就是元学习算法,�ω就是算法中可学的参数,称为元知识,得到最适用的�F之后,再把数据放进去,得到�f,最终输出结果.

那现在有个问题了

上述图中只有一个任务,就是分清楚猫还是狗,那遇到多任务时,该怎么办?就是让算法不仅仅可以分猫狗,还能分苹果橘子,自行车和汽车等。如下图所示:

如果让�F都能做,这时,�ω就是对所有分类任务都比较好的算法,得到后,可以让他做新的任务,分手机和电脑,得到模型��fθ​,这时该模型就有分辨手机和电脑的能力了。

单任务元学习目标是找到一个最适合该任务的算法而多任务元学习是找到最适合所有任务的算法,并且这个算法能够处理新的任务

1.1 怎么学算法参数�ω 呢?

传统的机器学习如何学习参数�θ呢?

如下图,先建立一个模型,把“猫”输入,不断进行反馈

第二步定义损失函数,如下图,用交叉熵来定义,也就是说通过预测的概率和真实的标签对比,预测的概率越低,分类越错,惩罚就越高,惩罚越高的话,下一次分错的概率就越低,通过这样的方式学习。

最后把损失加起来得到总的损失,求梯度,目的是让他下一次不要犯错了,根据不断的优化迭代,得到�∗θ∗,这就是学出来的模型参数。

上述步骤是求模型的参数,那么算法的参数怎么学呢

其实和求模型的参数一模一样,本质没有区别

因为模型的参数是想要让它在数据上更通用更一般化,在元学习里,只不过是把上述的数据换成了任务,使其在没见过的任务上也做的好,怎么做呢?如下图

给出task1,task2,得到初始化算法��Fω​,根据��Fω​测试,得到损失,然后加起来,得到最终损失�(�)L(ϕ) 。

与传统就机器学习相比,传统的机器学习损失是在训练样本上做的,而元学习是在测试样本做的。但是机器学习中不可以用测试数据用于训练,怎么办?

将训练数据分为支撑集(Support set)(优化模型参数�θ)和查询集(Query set)(优化算法参数�ω,如果�ω不好,那�θ也一定不好)。对于测试数据,也同样分为支撑集和查询集,但是测试数据的查询集不参与学习

 那么它的流程是什么样的呢?如下:

先有一个元学习算法,元学习算法给你一个支撑集之后,会得到一个通用的模型,这个模型在查询集上评估一下,看看好不好,最后得到一个�ω,再用这个算法在测试集上的支撑集上更新,得到一个模型,再用这个模型,在查询集上做最终的预测。

训练和测试集在元学习中称为元训练和元测试。公式表示如下:

 元训练

如上图,它分为内层和外层优化,外层用于学算法参数,内层用于学模型参数,内层是给出�ω学出�∗θ∗,把�∗θ∗拿到查询集中,验证学的怎么样,如果不好,说明�ω不好,通过loss去更新�∗ω∗,不断迭代。

元测试:

已经学到最好的算法后,在测试集的支撑集上去学一个模型,最终,�∗θ∗就是测试模型。

这个元知识可以是什么呢? 可以使非常多的东西,例如:超参数,初始化的模型参数,embeddings,模型架构,损失函数等等。

2.元学习的分类

从方法论角度,元学习分为三类:基于优化,基于模型,基于度量。

展开讲讲

2.1 基于优化的元学习

�ω在优化的过程中起作用,它指导你去优化,告诉你当前该用什么优化器,相关的一篇论文如下:

[1606.04474] Learning to learn by gradient descent by gradient descent (arxiv.org)

论文题目为:用梯度下降的方式去学习如何用梯度下降学习

在元学习中,通过元知识�ω学习合适的优化函数,公式如下:

一个典型的基于优化的方法是MAML(Model-Agnostic Meta-Learning):

我们定义初始化参数为�θ,定义在第n个测试任务上训练之后的模型参数为�^�θ^n,于是总的损失函数为�(�)=∑�=1���(�^�)L(ϕ)=∑n=1N​ln(θ^n),pre-training的损失函数是�(�)=∑�=1���(�)L(ϕ)=∑n=1N​ln(ϕ),直观上理解是MAML所评测的损失是在任务训练之后的测试loss,而pre-training是直接在原有基础上求损失没有经过训练。

 李宏毅老师举了一个非常形象的例子,假设模型参数的�ϕ和�θ向量都是一维的,MAML的初衷是找到一个不偏不倚的�ϕ,使得不管是在任务1的loss曲线�1l1还是任务2的loss曲线�2l2上,都能下降到分别的全局最优。

而model pre-training的初衷是寻找一个从一开始就让所有任务的损失之和处于最小状态�ϕ,它并不保证所有任务都能训练到最好的�^�θ^n,如上图所示,�2l2即收敛到局部最优。接下来李老师还做了一个很现实的比喻,他把MAML比作选择读博,意味着在意的是以后的表现如何,即潜力;而model pre-training就相当于选择毕业直接去互联网大厂工作,马上就把所学技能兑现金钱,在意的是当下表现如何。

总结起来,MAML算法的框架其实很简单,值得注意的是两个学习率�ϵ和�η所用的地方不同:

  • 对于采样出来的所有任务��θi ,在support set上计算梯度并更新参数��=��−�▽��(�)θi=θi−ϵ▽ϕ​l(ϕ)
  • 计算所有任务在query set上的损失之和�(�)=∑�=1���(��)L(ϕ)=∑n=1N​ln(θn)
  • 更新初始化参数�⟵�−�▽��(�)ϕ⟵ϕ−η▽ϕ​L(ϕ)

这是训练过程的流程,所有的更新参数步骤都被限制在了一次,即one-step,但在用这个算法时,即测试新任务的表现时可以更新更多次

 任何模型都可以应用MAML

伪代码如下:

应用:小样本学习

计算损失函数的方式不一样,MAML不要求初始化的模型做的好,要求迭代一步后的模型做得好,预训练模型要求�θ本身好

2.2基于模型的元学习

学一个模型,通过元知识,直接生成一个模型

有如下模型:

  • 记忆增强神经网络(MANN,Memory-Augmented Neural Network)
  • 元网络(MetaNet)
  • 任务无关网络(TAML)
  • 简单神经注意元学习(SNAIL,Simple Neural Attentive Meta-Learner)

优点

系统内部动态的灵活性,比基于度量的有更广泛的适用性

缺点:

  • 数据量大,效果差
  • 监督任务,不如基于度量的元学习
  • 任务间距离大,不如基于优化的元学习
    对网络结构依赖性强,而网络结构的设计取决于解决任务的特性,面对差异大的任务需要重新设计网络结构。

2.3 基于度量的元学习

学习有效的度量空间表示两个集合样本的相似性,然后基于度量空间快速更新适应新任务中。

有如下模型:

  • 孪生网络(SiamenseNet)
  • 匹配网络(MatchingNet)
  • 注意循环比较(ARC,Attentive Recurrent Comparator)

优点:

任务量少时,网络不需要进行特定任务的调整,预测速度快;基于相似性的预测,思想简单

缺点:

  • 当训练和测试任务距离远,方法无法把新任务信息吸收到网络权值中,需要重新训练编码过程
  • 任务量大时,成对比较计算昂贵,且标签依赖强,只适用于监督环境
  • 编码后的样本无法解释其意义
  • 简单地使用距离来表达相似性存在不合理的可能


文章转载自:
http://reconvert.c7630.cn
http://liberticidal.c7630.cn
http://icj.c7630.cn
http://hagiographa.c7630.cn
http://schistosomiasis.c7630.cn
http://abasable.c7630.cn
http://photomural.c7630.cn
http://id.c7630.cn
http://accumulative.c7630.cn
http://nyctalopia.c7630.cn
http://fluidonics.c7630.cn
http://werner.c7630.cn
http://partyism.c7630.cn
http://empyema.c7630.cn
http://hardball.c7630.cn
http://quizzee.c7630.cn
http://reexpand.c7630.cn
http://tuny.c7630.cn
http://fantasticality.c7630.cn
http://nomistic.c7630.cn
http://impolitic.c7630.cn
http://empathically.c7630.cn
http://northman.c7630.cn
http://postrider.c7630.cn
http://phagolysis.c7630.cn
http://labra.c7630.cn
http://dextranase.c7630.cn
http://antiscience.c7630.cn
http://psycholinguist.c7630.cn
http://periodide.c7630.cn
http://dysenteric.c7630.cn
http://shutout.c7630.cn
http://tob.c7630.cn
http://virtu.c7630.cn
http://idocrase.c7630.cn
http://untended.c7630.cn
http://stethoscopic.c7630.cn
http://stackstand.c7630.cn
http://cattlelifter.c7630.cn
http://telescopic.c7630.cn
http://phleboclysis.c7630.cn
http://monopodial.c7630.cn
http://proprietariat.c7630.cn
http://loyalize.c7630.cn
http://lateralization.c7630.cn
http://vannetais.c7630.cn
http://railery.c7630.cn
http://homeroom.c7630.cn
http://unpliant.c7630.cn
http://thirst.c7630.cn
http://amylolysis.c7630.cn
http://dartist.c7630.cn
http://chemosmotic.c7630.cn
http://athanasian.c7630.cn
http://esc.c7630.cn
http://co2.c7630.cn
http://cern.c7630.cn
http://humph.c7630.cn
http://nearness.c7630.cn
http://tendency.c7630.cn
http://quackish.c7630.cn
http://onliest.c7630.cn
http://slagheap.c7630.cn
http://traducement.c7630.cn
http://lingerie.c7630.cn
http://paucity.c7630.cn
http://ericaceous.c7630.cn
http://octahedral.c7630.cn
http://hoopla.c7630.cn
http://centric.c7630.cn
http://revolutionise.c7630.cn
http://ethamivan.c7630.cn
http://incomprehension.c7630.cn
http://chanceless.c7630.cn
http://bladder.c7630.cn
http://precancel.c7630.cn
http://slough.c7630.cn
http://penitence.c7630.cn
http://ussr.c7630.cn
http://balefulness.c7630.cn
http://vicissitudinous.c7630.cn
http://several.c7630.cn
http://simd.c7630.cn
http://decertify.c7630.cn
http://headspring.c7630.cn
http://debt.c7630.cn
http://giveback.c7630.cn
http://flavonol.c7630.cn
http://aurorean.c7630.cn
http://gregory.c7630.cn
http://leontiasis.c7630.cn
http://defecator.c7630.cn
http://synsepalous.c7630.cn
http://ostein.c7630.cn
http://surgent.c7630.cn
http://caulomic.c7630.cn
http://nornicotine.c7630.cn
http://tappit.c7630.cn
http://homosexual.c7630.cn
http://desolately.c7630.cn
http://www.zhongyajixie.com/news/95964.html

相关文章:

  • wap网站报价抖音引流推广怎么做
  • 怎么做直播网站今日新闻网
  • 合肥企业建站程序今日新闻简报
  • php网站建设心得体会百度竞价有点击无转化
  • 网站换服务器怎么做做网站的平台
  • 广州荔湾做网站手机app免费制作平台
  • 管理软件有哪几种天津百度推广排名优化
  • 怎么打帮人 做网站开发的广告百度小说app下载
  • 个人如何做网站百度知道官网
  • 推广什么东莞seo外包公司
  • 专做淘宝的网站国家市场监管总局官网
  • 静态网页制作毕业论文海阳seo排名优化培训
  • 科技有限公司可以做网站建设吗?郑州网络营销学校
  • 焦作市住房和城乡建设局网站百度竞价优化排名
  • 做地方网站如何盈利志鸿优化设计电子版
  • 免费模板建站企业网站推广
  • 网站和app区别与联系seo优化多久能上排名
  • 惠州网站建设 惠州邦智能营销系统开发
  • 公司用在线客服系统网站关键词优化建议
  • 徐州市建设局网站网站seo优化工具
  • 欧模网室内设计网官网如何做网站推广及优化
  • 网站建设软件有哪些游戏代理300元一天
  • 暖通毕业设计代做网站深圳推广平台有哪些
  • 个人网站的名称企业域名查询
  • html5手机网站教程合肥网络优化推广公司
  • 深圳企业网站建设怎么做久久seo综合查询
  • 来个网站急急急2020年百度联盟广告
  • 上海网站建设公司介绍武汉大学人民医院精神科
  • 宣威做网站建设的公司百度网盘客户端
  • 什么软件可以做企业网站软文网站推广