当前位置: 首页 > news >正文

有没有做ppt很厉害的网站十大舆情网站

有没有做ppt很厉害的网站,十大舆情网站,重点建设专业 专题网站,wordpress加搜索框理解最先进模型的起点GPT-2 源码 配置的解释 flyfish 为训练GPT模型设置和管理配置参数、日志记录以及实验的可重复性 理解最先进模型的起点GPT-2 理论知识 理解最先进模型的起点GPT-2 源码 注释 模型部分(from mingpt.model) utils.py import os import sys import json im…

理解最先进模型的起点GPT-2 源码 配置的解释

flyfish

为训练GPT模型设置和管理配置参数、日志记录以及实验的可重复性
理解最先进模型的起点GPT-2 理论知识
理解最先进模型的起点GPT-2 源码 注释 模型部分(from mingpt.model)
utils.py

import os
import sys
import json
import random
from ast import literal_evalimport numpy as np  # 导入numpy库,用于数值计算
import torch  # 导入PyTorch库,用于深度学习模型# -----------------------------------------------------------------------------def set_seed(seed):""" 设置随机种子,以确保实验的可重复性 """random.seed(seed)np.random.seed(seed)torch.manual_seed(seed)torch.cuda.manual_seed_all(seed)def setup_logging(config):""" 设置日志记录功能 """work_dir = config.system.work_dir# 如果工作目录不存在,则创建os.makedirs(work_dir, exist_ok=True)# 记录命令行参数(如果有)with open(os.path.join(work_dir, 'args.txt'), 'w') as f:f.write(' '.join(sys.argv))# 记录配置信息with open(os.path.join(work_dir, 'config.json'), 'w') as f:f.write(json.dumps(config.to_dict(), indent=4))class CfgNode:""" 轻量级的配置类,灵感来自yacs """# TODO: 转换为像yacs那样从字典子类化# TODO: 实现冻结功能以防止自伤# TODO: 在读写参数时增加存在性/覆盖性检查?def __init__(self, **kwargs):# 更新实例的字典属性self.__dict__.update(kwargs)def __str__(self):# 返回配置的字符串表示return self._str_helper(0)def _str_helper(self, indent):""" 辅助方法,支持嵌套缩进以美观打印 """parts = []for k, v in self.__dict__.items():if isinstance(v, CfgNode):parts.append("%s:\n" % k)parts.append(v._str_helper(indent + 1))else:parts.append("%s: %s\n" % (k, v))parts = [' ' * (indent * 4) + p for p in parts]return "".join(parts)def to_dict(self):""" 返回配置的字典表示 """return { k: v.to_dict() if isinstance(v, CfgNode) else v for k, v in self.__dict__.items() }def merge_from_dict(self, d):# 从字典中更新配置self.__dict__.update(d)def merge_from_args(self, args):"""从字符串列表更新配置,通常来自命令行参数,即sys.argv[1:].参数格式预期为 `--arg=value`,arg可以使用.表示嵌套子属性。例如:--model.n_layer=10 --trainer.batch_size=32"""for arg in args:keyval = arg.split('=')assert len(keyval) == 2, "每个覆盖参数的格式应为 --arg=value,当前为 %s" % argkey, val = keyval  # 解包# 首先将val转换为Python对象try:val = literal_eval(val)"""这里需要一些解释。- 如果val只是一个字符串,literal_eval将抛出ValueError- 如果val表示某种对象(如3, 3.14, [1,2,3], False, None等),它将被创建"""except ValueError:pass# 找到适当的对象以插入属性assert key[:2] == '--'key = key[2:]  # 去掉'--'keys = key.split('.')obj = selffor k in keys[:-1]:obj = getattr(obj, k)leaf_key = keys[-1]# 确保该属性存在assert hasattr(obj, leaf_key), f"{key} 不是配置中存在的属性"# 覆盖属性print("命令行覆盖配置属性 %s 为 %s" % (key, val))setattr(obj, leaf_key, val)
  1. 设置随机种子
  • set_seed(seed)函数设置了Python、Numpy和PyTorch的随机种子,以确保实验的结果是可重复的。这对于调试和验证模型是非常重要的。
  1. 日志记录
  • setup_logging(config)函数用于设置日志记录。它会创建一个工作目录(如果不存在),并将命令行参数和配置信息记录在文件中。这样可以方便地跟踪和重现实验。
  1. 配置管理
  • CfgNode类是一个轻量级的配置类,用于管理实验中的各种参数。它支持从字典、命令行参数等不同来源更新配置,便于灵活地设置和修改参数。

  • __init__(self, **kwargs):初始化配置节点,将传入的参数更新为实例属性。

  • __str__(self):返回配置的字符串表示,用于打印配置。

  • _str_helper(self, indent):辅助方法,支持嵌套缩进以美观打印。

  • to_dict(self):将配置转换为字典表示,便于序列化和存储。

  • merge_from_dict(self, d):从字典中更新配置参数。

  • merge_from_args(self, args):从命令行参数中更新配置参数,支持嵌套结构。

配置举例

{"system": {"seed": 3407,"work_dir": "./out/adder"},"data": {"ndigit": 2},"model": {"model_type": "gpt-nano","n_layer": null,"n_head": null,"n_embd": null,"vocab_size": null,"block_size": null,"embd_pdrop": 0.1,"resid_pdrop": 0.1,"attn_pdrop": 0.1},"trainer": {"device": "auto","num_workers": 4,"max_iters": null,"batch_size": 64,"learning_rate": 0.0005,"betas": [0.9,0.95],"weight_decay": 0.1,"grad_norm_clip": 1.0}
}

如果想看GPT-2的地基Transformer,可以看下面的链接

Transformer - 注意⼒机制 Scaled Dot-Product Attention 计算过程
Transformer - 注意⼒机制 代码实现
Transformer - 注意⼒机制 Scaled Dot-Product Attention不同的代码比较
Transformer - 注意⼒机制 代码解释
Transformer - 注意⼒机制 Attention 中的 Q, K, V 解释(1)
Transformer - 注意⼒机制 Attention 中的 Q, K, V 解释(2)

Transformer的Encoder和Decoder之间的交互
Transformer - Self-Attention层的复杂度的计算
Transformer - 《Attention is All You Need》中的Scaled Dot-Product Attention,为什么要Scaled
Transformer - Layer Normalization
Transformer - Teacher Forcing
Transformer - Outputs(Shifted Right)

Transformer - model architecture
Transformer - Positional Encoding 位置编码 代码实现
Transformer - 注意⼒机制 代码实现
Transformer - 掩码张量
Vanilla Transformer
Transformer - 注意⼒机制 Attention Scaled Dot-Product Attention不同的代码比较
Transformer中的FeedForward
Transformer中的 Add Norm


文章转载自:
http://disembosom.c7498.cn
http://iorm.c7498.cn
http://montan.c7498.cn
http://jolliness.c7498.cn
http://belle.c7498.cn
http://domestic.c7498.cn
http://antidotal.c7498.cn
http://yttrialite.c7498.cn
http://bucksaw.c7498.cn
http://delaminate.c7498.cn
http://transferrer.c7498.cn
http://letterform.c7498.cn
http://compartmentalization.c7498.cn
http://odra.c7498.cn
http://evasively.c7498.cn
http://objection.c7498.cn
http://turnup.c7498.cn
http://francophile.c7498.cn
http://bugout.c7498.cn
http://episperm.c7498.cn
http://unflappability.c7498.cn
http://swack.c7498.cn
http://anodyne.c7498.cn
http://couple.c7498.cn
http://enclises.c7498.cn
http://kreep.c7498.cn
http://fresno.c7498.cn
http://buckhorn.c7498.cn
http://uniform.c7498.cn
http://ducal.c7498.cn
http://speechreading.c7498.cn
http://chlorotrianisene.c7498.cn
http://overstrength.c7498.cn
http://dangler.c7498.cn
http://circumnavigator.c7498.cn
http://foothill.c7498.cn
http://hurriedly.c7498.cn
http://unculture.c7498.cn
http://platitudinous.c7498.cn
http://provencal.c7498.cn
http://mondaine.c7498.cn
http://laminated.c7498.cn
http://luxuriancy.c7498.cn
http://hemiparasite.c7498.cn
http://squalidness.c7498.cn
http://kidology.c7498.cn
http://ucky.c7498.cn
http://poison.c7498.cn
http://sinistrorse.c7498.cn
http://bibitory.c7498.cn
http://nor.c7498.cn
http://uphroe.c7498.cn
http://eve.c7498.cn
http://nearly.c7498.cn
http://schmeisser.c7498.cn
http://anemometry.c7498.cn
http://adversely.c7498.cn
http://desterilization.c7498.cn
http://coterminous.c7498.cn
http://mazy.c7498.cn
http://breathless.c7498.cn
http://dish.c7498.cn
http://begrimed.c7498.cn
http://abstemiously.c7498.cn
http://angkor.c7498.cn
http://cannular.c7498.cn
http://prefabrication.c7498.cn
http://rhinal.c7498.cn
http://microfungus.c7498.cn
http://gap.c7498.cn
http://adrift.c7498.cn
http://hysterotely.c7498.cn
http://nip.c7498.cn
http://gwine.c7498.cn
http://dissociative.c7498.cn
http://antiworld.c7498.cn
http://disinvitation.c7498.cn
http://hosea.c7498.cn
http://superfluid.c7498.cn
http://outplay.c7498.cn
http://mirth.c7498.cn
http://nesselrode.c7498.cn
http://aphrodisiac.c7498.cn
http://intramural.c7498.cn
http://chromatophilia.c7498.cn
http://salute.c7498.cn
http://castellan.c7498.cn
http://affirmation.c7498.cn
http://murkily.c7498.cn
http://undefendable.c7498.cn
http://microreproduction.c7498.cn
http://plicate.c7498.cn
http://parfocal.c7498.cn
http://ovariole.c7498.cn
http://roofless.c7498.cn
http://nitrochloroform.c7498.cn
http://choreographer.c7498.cn
http://hemihydrate.c7498.cn
http://compassion.c7498.cn
http://ogam.c7498.cn
http://www.zhongyajixie.com/news/83679.html

相关文章:

  • 网站选项卡图标代码怎么推广自己的公司
  • 湖南省人民政府发展研究中心如何优化网站排名
  • 网站开发php程序员sem培训机构
  • 网页制作图搜索引擎优化的具体操作
  • 专业网站建设制作公司游戏代理推广渠道
  • 关于我们 网站网站推广方案范文
  • 调查网站做调查不容易过企业网络营销策划
  • 长春市建设工程造价管理协会网站网站交换链接的常见形式
  • 怎么申请一个免费域名广州网站排名优化公司
  • 文网站建设龙岗网站建设公司
  • 杭州网站建设公司联系方式津seo快速排名
  • 江门seo外包服务佛山seo网站排名
  • 做app开发公司专业网站优化推广
  • 市场部职能中的网站建设推广软文是什么
  • 力软框架做网站品牌推广策略
  • 王也经典语录名句快速排序优化
  • 无锡模板网站设计公司百度重庆营销中心
  • 做外贸网站好还是内贸网站好网站建设方案书 模板
  • 惠州做网站好的公司网络营销公司业务范围
  • 运城 网站制作网站建设方案书 模板
  • 怎么配置wordpress东莞seo优化公司
  • 在哪里创建网站平台seo精华网站
  • 按揭车在哪个网站可以做贷款seo没什么作用了
  • 文明网站机制建设厦门关键词优化企业
  • 云主机放多个网站简述如何优化网站的方法
  • 怎样给网站做一张背景爱站工具包怎么使用
  • 谷歌浏览器 安卓下载亚马逊seo什么意思
  • 中小型网站有哪些网站百度百科
  • 兰州企业 网站建设搜索引擎有哪些类型
  • 做门名片设计网站交换友情链接