当前位置: 首页 > news >正文

甘肃网络公司网站建设河北百度推广客服电话

甘肃网络公司网站建设,河北百度推广客服电话,网站建设发展,二级网页制作教程本文作者:杨健,九章云极 DataCanvas 主任架构师 如何有效提高模型的泛化能力,始终是机器学习领域的重要课题。经过大量的实践证明比较有效的方式包括: 利用Early Stopping防止过拟合通过正则化降低模型的复杂度使用更多的训练数…

本文作者:杨健,九章云极 DataCanvas 主任架构师

如何有效提高模型的泛化能力,始终是机器学习领域的重要课题。经过大量的实践证明比较有效的方式包括:

  • 利用Early Stopping防止过拟合
  • 通过正则化降低模型的复杂度
  • 使用更多的训练数据
  • 尽量使用更少的特征
  • 使用CV来选择模型和超参数
  • 使用Ensemble来提升泛化能力

Early stopping以及正则化是比较基本的方法这里就不赘述,此外HyperGBM中还提供了4种高级特性,专门用来提升模型的泛化能力:

  • Pseudo-labeling半监督学习
  • 二阶特征筛选
  • K-fold Cross-validation
  • Greedy ensemble

1.Pseudo-labeling

伪标签技术主要应用在分类任务上,本质上是通过半监督学习的方法来增加更多的训练数据,以提升模型的泛化能力。其过程如下图所示,主要分为三个阶段:

1.第一阶段用训练数据训练模型;

2.第二阶段使用第一阶段训练好的模型在无标注的数据上预测,将其中置信度较高的数据合并到训练集中;

3.第三阶段使用合并后的数据重新训练模型;
在这里插入图片描述

Image from: https://www.analyticsvidhya.com/blog/2017/09/pseudo-labelling-semi-supervised-learning-technique/

示例代码,HyperGBM中只需设置pseudo_labeling会自动完成伪标签学习:

from tabular_toolbox.datasets import dsutils
from sklearn.model_selection import train_test_split
from hypergbm.search_space import search_space_general
from hypergbm import make_experiment
# load data into Pandas DataFrame
df = dsutils.load_bank()
target = 'y'
train, test = train_test_split(df, test_size=0.3)
test.pop(target)#create an experiment
experiment = make_experiment(train,target=target,pseudo_labeling=True)
#run experiment
estimator = experiment.run()
# predict on test data without target values
pred = estimator.predict(test)

2.二阶特征筛选

通过特征筛选过滤掉无效特征或者噪音数据,能有效降低模型的复杂度。传统的特征筛选方法,一类是在训练之前通过相关性指标评估或者是基于模型的特征评估排序,然后根据阈值或者是排序选择n个特征用于训练,另一类是先训练模型然后根据模型本身提供的特征重要性来选择一部分特征重新训练。第一类方法有明显的缺陷就是特征的评估标准和实际用于训练的模型无关,也不会考虑特征之间的交互关系。第二类方法有明显的改进但也存在一个问题,就是模型提供是在训练数据上的重要性,并不能体现在评估数据或测试数据上特征的重要性。因此HyperGBM中引入了独特的二阶特征筛选策略来克服以上缺点。它的工作方式如下:首先执行一阶段AutoML过程,然后选择其中表现最好的n个模型使用permutation模式评估特征重要性,删除低于某一阈值的特征后,重新执行AutoML过程。

这里主要介绍一下permutation特征筛选:首先,基于已经训练好的模型在评估集上得到一个baseline评分,然后分别将每一列特征变成噪音数据后重新评估,评分等于或高于baseline评分说明该特征对模型没有增益甚至于是有损的,如果评分下降说明该特征是对模型有益的,用这个和baseline评分的差值做为特征筛选的参考值选择特征。

示例代码如下:

#create an experiment
experiment = make_experiment(train,target=target,
feature_reselection=True,
feature_reselection_estimator_size=10,
feature_reselection_threshold=1e-5,
)

3.K-fold Cross-validation

交叉验证被证明是模型选择和超参数优化中最有效的验证方式,示例代码如下:

#create an experiment
experiment = make_experiment(train,target=target,
cv=True, 
num_folds=3,
)

4.Greedy Ensemble

Greedy Ensemble是使用基于voting的集成学习方法,实现原理可以参考:

https://www.sciencedirect.com/science/article/abs/pii/S0031320310005340

示例代码:

#create an experiment
experiment = make_experiment(train,target=target,
ensemble_size=20, # 0 to disable ensemble
)

以上四种方法可以组合起来使用。

http://www.zhongyajixie.com/news/18623.html

相关文章:

  • 网站如何做宣传推广百度推广开户流程
  • 校园网站建设策划书百度快照优化培训班
  • 微信推广网站怎么做网站推广优化服务
  • 做网站推广的难点、秒收录关键词代发
  • 武汉可以做网站的地方想要导航页面推广app
  • 帝国cms使用教程常州百度搜索优化
  • 专业彩票网站开发 APP开发免费大数据分析网站
  • 团购网站自个做seo公司资源
  • 深圳网站运营外包公司广告信息发布平台
  • 做类似58类型网站关于友情链接说法正确的是
  • 包头外贸网站建设电脑系统优化工具
  • 武汉搜索引擎营销网络优化基础知识
  • flash 网站建设引流获客app下载
  • 怎么为做的网站配置域名短视频seo询盘获客系统软件
  • 推荐几个用vue做的网站自媒体135的网站是多少
  • 上海专业网站建设公司在运营中seo是什么意思
  • 杭州做宠物网站的公司哪家好合肥建站公司seo
  • 深圳集团网站建设报价上海网站seo外包
  • 黄金软件在线下载广东网站seo
  • 做网站那家公司好优化营商环境发言材料
  • 手机游戏开服表时间表seo外包公司优化
  • pacharm做腾讯视频网站网络推广文案怎么写
  • 制作英文网站昆明网站seo优化
  • 上海网站建设推荐企业培训机构
  • 河北企业建网站怎么在百度制作自己的网站
  • 免费建设网站网站建设服务商
  • 建设通官方网站下载创建网站
  • 购物网站哪里建最好网站维护中
  • 快站如何做网站中国重大新闻
  • 做网站营业执照经营范围怎么填写免费发帖推广平台