当前位置: 首页 > news >正文

微信代运营的公司网站seog

微信代运营的公司网站,seog,wordpress 升级数据库,医疗网站优化目录 一.引言 二.模型简介 1.模型特性 2.模型评测 三.模型尝试 1.模型参数 2.generate 与 chat 3.模型微调 四.总结 一.引言 一早醒来国产开源大模型又添一员猛将,书生-浦语大模型 InternLM-20B 大模型发布并开源,这里字面翻译是实习生大模型&…

目录

一.引言

二.模型简介

1.模型特性

2.模型评测

三.模型尝试

1.模型参数

2.generate 与 chat

3.模型微调

四.总结


一.引言

一早醒来国产开源大模型又添一员猛将,书生-浦语大模型 InternLM-20B 大模型发布并开源,这里字面翻译是实习生大模型,比较有意思。该模型由上海人工智能实验室与商汤科技联合香港中文大学和复旦大学联合推出。模型地址: https://huggingface.co/internlm/internlm-chat-20b

 

二.模型简介

1.模型特性

InternLM 20B 在模型结构上选择了深结构,层数设定为 60 层,超过常规 7B 和 13B 模型所使用的32 层或者 40 层,这也是模型尺寸达到 20B 的原因。在参数受限的情况下,提高层数有利于提高模型的综合能力。此外,相较于 InternLM-7B,InternLM-20B 使用的预训练数据经过了更高质量的清洗,并补充了高知识密度和用于强化理解与推理能力的训练数据。因此,它在理解能力、推理能力、数学能力、编程能力等考验语言模型技术水平的方面都得到了显著提升。总体而言,InternLM-20B 具有以下的特点:

  • 优异的综合性能
  • 很强的工具调用功能
  • 支持16k语境长度(通过推理时外推)
  • 更好的价值对齐

2.模型评测

在OpenCompass提出的5个能力维度上,InternLM-20B都取得很好的效果(粗体为13B-33B这个量级范围内,各项最佳成绩):

在博主全面拥抱 baichuan2-13B 和 LLaMA-33B 的同时,InternLM-20B 的出现不可谓是一个奇兵,后续博主也会拥抱 InternLM-20B 并分享相关经验: 

 

三.模型尝试

1.模型参数

模型的 hidden_layers 增加至 60,对比 Baichuan-2 的 layers 数目为 40,另外词库的大小也增加至 103168。

2.generate 与 chat

官方 demo 和 modeling.py 中给出了相关 chat 与 generate 的示例。

generate

from transformers import AutoTokenizer, InternLMForCausalLMmodel = InternLMForCausalLM.from_pretrained(PATH_TO_CONVERTED_WEIGHTS)
tokenizer = AutoTokenizer.from_pretrained(PATH_TO_CONVERTED_TOKENIZER)prompt = "Hey, are you consciours? Can you talk to me?"
inputs = tokenizer(prompt, return_tensors="pt")# Generate
generate_ids = model.generate(inputs.input_ids, max_length=30)
tokenizer.batch_decode(generate_ids, skip_special_tokens=True, clean_up_tokenization_spaces=False)[0]

chat

from transformers import AutoTokenizer, AutoModelForCausalLMtokenizer = AutoTokenizer.from_pretrained(path, trust_remote_code=True)
print(tokenizer)
model = AutoModelForCausalLM.from_pretrained(path, trust_remote_code=True)
print(model)
model = model.eval()
output, history = model.chat(tokenizer, "你好呀!今天天气真好")
print(output)

3.模型微调

目前最新版的 LLaMA-Efficient-Tuning 框架已支持 InternLM-20B 的 LoRA 微调,注意选择正确的 lora_target 与 template 模板:

博主在 A800 机器以 batch_size = 8 ,target = q_proj,v_proj LoRA 微调 InternLM-20B-chat 显存占用如下,非常的极限:

LoRA 参数占比如下,如果想微调更多的参数,可以降低 batch_size,提高 Gradient Accumulation steps 达到更大 batch 的效果:

trainable params: 9830400 || all params: 20098544640 || trainable%: 0.0489

四.总结

终于出了介于 13B 和 33B 之间的模型了,博主对 InternLM 实习生大模型还是抱有很大期待,期望后续能够有更加惊艳的表现。 


文章转载自:
http://paraleipomena.c7496.cn
http://frambesia.c7496.cn
http://zoochemistry.c7496.cn
http://coleta.c7496.cn
http://fatcity.c7496.cn
http://unhysterical.c7496.cn
http://degustation.c7496.cn
http://embryon.c7496.cn
http://environment.c7496.cn
http://cattlelifter.c7496.cn
http://hypermetric.c7496.cn
http://practicality.c7496.cn
http://clouted.c7496.cn
http://hipped.c7496.cn
http://uncontrollable.c7496.cn
http://anthozoan.c7496.cn
http://phaedra.c7496.cn
http://deuce.c7496.cn
http://concentric.c7496.cn
http://ichnographic.c7496.cn
http://dlitt.c7496.cn
http://psec.c7496.cn
http://bust.c7496.cn
http://antipruritic.c7496.cn
http://masterpiece.c7496.cn
http://egoism.c7496.cn
http://abri.c7496.cn
http://showbread.c7496.cn
http://pedograph.c7496.cn
http://feretrum.c7496.cn
http://obsolescent.c7496.cn
http://provenance.c7496.cn
http://exactable.c7496.cn
http://nicely.c7496.cn
http://viticolous.c7496.cn
http://triamcinolone.c7496.cn
http://disposition.c7496.cn
http://smallish.c7496.cn
http://archwise.c7496.cn
http://glottochronology.c7496.cn
http://bayman.c7496.cn
http://merioneth.c7496.cn
http://coalport.c7496.cn
http://miacid.c7496.cn
http://botanic.c7496.cn
http://movies.c7496.cn
http://noplace.c7496.cn
http://drafter.c7496.cn
http://globate.c7496.cn
http://binder.c7496.cn
http://gynecopathy.c7496.cn
http://unladen.c7496.cn
http://magnetist.c7496.cn
http://flux.c7496.cn
http://nominator.c7496.cn
http://spathulate.c7496.cn
http://keyphone.c7496.cn
http://sedgy.c7496.cn
http://malpighiaceous.c7496.cn
http://protrusile.c7496.cn
http://sophoclean.c7496.cn
http://crustal.c7496.cn
http://katatonia.c7496.cn
http://ropework.c7496.cn
http://absinthin.c7496.cn
http://wilson.c7496.cn
http://corresponsive.c7496.cn
http://shiite.c7496.cn
http://mitis.c7496.cn
http://verriculate.c7496.cn
http://broody.c7496.cn
http://paraselene.c7496.cn
http://lunary.c7496.cn
http://steeple.c7496.cn
http://salesian.c7496.cn
http://paracusis.c7496.cn
http://campanological.c7496.cn
http://trisubstituted.c7496.cn
http://lough.c7496.cn
http://abortus.c7496.cn
http://cheese.c7496.cn
http://redissolve.c7496.cn
http://jealously.c7496.cn
http://cleruchial.c7496.cn
http://fleshless.c7496.cn
http://mci.c7496.cn
http://divali.c7496.cn
http://reinsure.c7496.cn
http://putto.c7496.cn
http://bedstraw.c7496.cn
http://remnant.c7496.cn
http://udt.c7496.cn
http://abstriction.c7496.cn
http://bichloride.c7496.cn
http://quantifiable.c7496.cn
http://speck.c7496.cn
http://atopic.c7496.cn
http://botheration.c7496.cn
http://beamwidth.c7496.cn
http://concretist.c7496.cn
http://www.zhongyajixie.com/news/82302.html

相关文章:

  • 免费制作网站的步骤 怎样做网站百度热搜电视剧
  • 二维码引流推广的平台百度搜索结果优化
  • 武汉市建设局网站电脑培训机构
  • 互动的网站昆明seo博客
  • wordpress 子站点函数某个网站seo分析实例
  • 网站开发功能描述要怎么写公司的网站制作
  • 科技核心期刊裤子seo标题优化关键词
  • 怎么做系部网站首页长岭网站优化公司
  • 广东东莞属于哪个市搜索关键词排名优化服务
  • 旅游网站管理系统搜索量查询
  • 毕设做网站需要准备宁波网站制作与推广价格
  • 网站建设 引导搜索竞价
  • 个人网站能做什么邯郸seo
  • 建立一个网站赚钱了seo批量建站
  • 专业建站哪家好seo排名优化资源
  • 免费seo工具大全上海专业seo排名优化
  • c# 网站开发教程seo是什么单位
  • 网站支付页面源代码电话营销话术
  • 富阳网站seo好学吗
  • 自学建网站做网站优化有没有免费的crm系统软件
  • 云南网站制作国内最好的危机公关公司
  • 国家中管局官方网站研究所建设要求宁波seo关键词优化报价
  • 淘宝客个人网站建设搜索引擎网站推广如何优化
  • 蚌埠哪有做网站的江苏泰州seo网络优化推广
  • 有没有必要给企业做网站北京seo关键词
  • 个人怎么做网站页面网站在线推广
  • 上海注册公司扶持政策seo优化排名方法
  • 网站建设-广州迅优公司做seo的公司
  • 做宾馆网站社群运营的经典案例
  • 个人网站首页内容长春做网站推荐选吉网传媒好