当前位置: 首页 > news >正文

碧海蓝天网站seo赚钱方法大揭秘

碧海蓝天网站,seo赚钱方法大揭秘,网络工程建设流程,免费做手机网站建设目录 前言 RNN背景 RNN原理 上半部分:RNN结构及按时间线展开图 下半部分:RNN在不同时刻的网络连接和计算过程 LSTM RNN存在的问题 LSTM的结构与原理 数学表达层面 与RNN对比优势 应用场景拓展 从简易但严谨的代码来看RNN和LSTM RNN LSTM 前言 绕循环神经…

目录

前言

RNN背景

RNN原理

上半部分:RNN结构及按时间线展开图

下半部分:RNN在不同时刻的网络连接和计算过程

LSTM

RNN存在的问题

LSTM的结构与原理

数学表达层面

与RNN对比优势

应用场景拓展

从简易但严谨的代码来看RNN和LSTM

RNN

LSTM


前言

绕循环神经网络(RNN)、注意力机制(Attention)以及相关模型(如 LSTM、Transformer、BERT、GPT 等)在深度学习中的应用展开,介绍了其原理、结构、算法流程和实际应用场景。

RNN背景

RNN 产生的原因深度神经网络(DNN)在处理输入时,每个输入之间相互独立,无法处理序列信息。然而在自然语言处理(NLP)和视频处理等任务中,需要考虑输入元素之间的关联性,因此引入 RNN。以 NLP 中的词性标注任务为例,需处理单词序列才能准确标注词性,仅单独理解每个单词是不够的。

RNN 的结构与公式:RNN 在结构上引入了循环层,其隐藏层状态St不仅取决于当前输入Xt,还与上一时刻的隐藏层状态相关。具体公式为

输出

这样结构使RNN网络能够序列信息进行处理

RNN原理

上半部分:RNN结构及按时间线展开图

RNN结构:

输入层(Input Layer):标记为“x”,接收输入数据。

隐藏层(Hidden Layer):标记为“s”,是RNN的核心部分,包含循环连接。图中显示了权重矩阵“U”(连接输入层和隐藏层)和“W”(隐藏层的循环连接)(输入层的)

输出层(Output Layer):标记为“o”,通过权重矩阵“V”与隐藏层相连(输出层的),产生最终输出。

按时间线展开:

将RNN在时间维度上展开,展示了不同时刻(t-1, t, t+1)的网络状态。每个时刻都有输入x_t、隐藏层状态s_t和输出o_t。权重矩阵“U”、“W”和“V”在不同时刻保持不变,体现了RNN在时间上共享参数的特性。

下半部分:RNN在不同时刻的网络连接和计算过程

t-1时刻

展示了隐藏层状态s的向量形式,s=[s1, s2, ..., sn],其中每个元素代表隐藏层的一个神经元状态。权重矩阵“W”连接了t-1时刻的隐藏层神经元。

t时刻

输入层:输入向量X=[x1, x2, ..., xm],其中m是输入维度。

隐藏层:通过权重矩阵“U”接收输入层的信息,并通过权重矩阵“W”接收t-1时刻的隐藏层状态信息。图中显示了隐藏层的计算过程,即

其中f是激活函数。

输出层:根据隐藏层状态S_t,通过权重矩阵“V”计算输出

其中g是输出层的激活函数。

LSTM

LSTM(Long - Short - Term Memory,长短期记忆网络)是为解决传统循环神经网络(RNN)存在的问题而设计的。

RNN存在的问题

RNN有两个主要问题。一是短期记忆问题,当处理足够长的序列时,它难以将早期时间步的信息传递到后期。比如处理一段文本进行预测时,可能会遗漏开头的重要信息。二是梯度消失问题,在反向传播过程中,梯度随着时间反向传播而缩小。当梯度值变得极小,对神经网络权重更新的贡献就很小,导致早期的层停止学习,这也使得RNN在处理长序列时容易遗忘之前的信息。

LSTM的结构与原理

输入

当前时刻输出保存当前细胞状态(传递给下一个‘细胞’)

LSTM通过引入“细胞状态(cell state)”和“门(gate)”机制来解决上述问题:

细胞状态:就像一条传送带,在整个网络中运行,它可以在序列的不同时间步之间传递信息,使得LSTM能够处理长序列而不容易丢失早期信息。

门:

遗忘门(forget gate):决定从细胞状态中丢弃哪些信息。它读取当前输入和上一时刻隐藏状态,输出一个0 - 1之间的值,1表示“完全保留”,0表示“完全丢弃”。

输入门(input gate):确定要在细胞状态中存储哪些新信息。它包含一个sigmoid层来决定更新哪些值,以及一个tanh层来创建新的候选值向量,这些候选值可能会被添加到细胞状态中。

输出门(output gate):确定LSTM的输出。它首先通过sigmoid层决定细胞状态的哪些部分将被输出,然后将细胞状态通过tanh层(将值映射到 - 1到1之间),并将其与sigmoid层的输出相乘,得到最终的输出。

通过这些机制,LSTM能够更好地处理长序列数据,有选择性地记忆和遗忘信息,有效克服了RNN的短期记忆和梯度消失问题,这也是LSTM在后续的一些自然语言处理、语音识别等领域得到广泛应用的主要原因。

数学表达层面

遗忘门计算:

,其中W_f是权重矩阵,[h_{t - 1},x_t]是上一时刻隐藏状态和当前输入的拼接(‘细胞’传递),b_f是偏置项(截距),sigma是sigmoid激活函数,输出值在0 - 1之间,决定从细胞状态中遗忘的信息比例。

输入门计算:

确定更新值比例,

生成候选值向量,二者后续用于更新细胞状态。

细胞状态更新:

是逐元素相乘,即结合遗忘门输出、上一时刻细胞状态、输入门输出和候选值向量来更新细胞状态。

输出门计算:

决定输出比例,

得到最终隐藏状态输出。

与RNN对比优势

长期依赖处理:RNN受限于梯度消失难以保持长期依赖,LSTM通过门控机制控制细胞状态信息流,能有效保存和传递长距离信息,比如在处理长篇小说文本时,可记住开头人物关系等信息用于后续情节理解和生成。

学习效率:RNN因梯度问题早期层学习困难,LSTM通过门控灵活控制信息流动,更高效学习,在训练时间和收敛速度上表现更好,在语音识别任务中,可更快学习到语音序列中的特征模式。

应用场景拓展

自然语言处理:除常见的文本生成、机器翻译、情感分析,在文本摘要提取中,能抓住长文本关键信息;在命名实体识别中,准确识别不同类型实体。

时间序列预测:在金融领域,预测股票价格、汇率等波动;在能源领域,预测电力负荷、能源消耗等,利用其对时间序列中长短期信息的捕捉能力提高预测准确性。

视频处理:分析视频帧序列,用于动作识别、视频内容理解与生成,如判断视频中人物动作类别,生成符合逻辑的视频字幕等。

从简易但严谨的代码来看RNN和LSTM

通过pytorch框架定义只有一个’细胞RNNLSTM,进一步理解这两个网络架构应用

RNN

import torch
import torch.nn as nn# 定义RNN模型
class SimpleRNN(nn.Module):def __init__(self, input_size, hidden_size, num_layers, output_size):super(SimpleRNN, self).__init__()
        self.hidden_size = hidden_size
        self.num_layers = num_layers
        self.rnn = nn.RNN(input_size, hidden_size, num_layers, batch_first=True)
        self.fc = nn.Linear(hidden_size, output_size)def forward(self, x):
        h0 = torch.zeros(self.num_layers, x.size(0), self.hidden_size).to(x.device)
        out, _ = self.rnn(x, h0)
        out = self.fc(out[:, -1, :])return out# 示例参数
input_size = 10
hidden_size = 20
num_layers = 1
output_size = 5
batch_size = 3
seq_length = 8# 创建输入数据
x = torch.randn(batch_size, seq_length, input_size)# 实例化RNN模型
model = SimpleRNN(input_size, hidden_size, num_layers, output_size)# 前向传播
output = model(x)
print(output.shape)

说明

定义了一个简单的SimpleRNN类继承自nn.Module。在构造函数中,初始化了 RNN 层和全连接层。nn.RNN指定了输入维度input_size、隐藏层维度hidden_size、层数num_layers,并设置batch_first=True表示输入数据的形状为(batch_size, seq_length, input_size)。

forward方法中,首先初始化隐藏状态h0,然后将输入数据x和初始隐藏状态传入 RNN 层,获取输出out。最后将 RNN 最后一个时间步的输出传入全连接层得到最终输出。

LSTM

import torch
import torch.nn as nn# 定义LSTM模型
class SimpleLSTM(nn.Module):def __init__(self, input_size, hidden_size, num_layers, output_size):super(SimpleLSTM, self).__init__()
        self.hidden_size = hidden_size
        self.num_layers = num_layers
        self.lstm = nn.LSTM(input_size, hidden_size, num_layers, batch_first=True)
        self.fc = nn.Linear(hidden_size, output_size)def forward(self, x):
        h0 = torch.zeros(self.num_layers, x.size(0), self.hidden_size).to(x.device)
        c0 = torch.zeros(self.num_layers, x.size(0), self.hidden_size).to(x.device)
        out, _ = self.lstm(x, (h0, c0))
        out = self.fc(out[:, -1, :])return out# 示例参数
input_size = 10
hidden_size = 20
num_layers = 1
output_size = 5
batch_size = 3
seq_length = 8# 创建输入数据
x = torch.randn(batch_size, seq_length, input_size)# 实例化LSTM模型
model = SimpleLSTM(input_size, hidden_size, num_layers, output_size)# 前向传播
output = model(x)
print(output.shape)

说明

1.定义了SimpleLSTM类,同样继承自nn.Module。构造函数中初始化了 LSTM 层和全连接层,nn.LSTM的参数设置与 RNN 类似。

2.forward方法里,除了初始化隐藏状态h0,还初始化了细胞状态c0,然后将输入x、h0和c0传入 LSTM 层,获取输出out,最后经全连接层得到最终结果。


文章转载自:
http://make.c7510.cn
http://protogyny.c7510.cn
http://sexologist.c7510.cn
http://gelong.c7510.cn
http://cudgel.c7510.cn
http://wmc.c7510.cn
http://polemic.c7510.cn
http://vaginismus.c7510.cn
http://bestialize.c7510.cn
http://vulcanite.c7510.cn
http://unpredictable.c7510.cn
http://farcy.c7510.cn
http://newspaper.c7510.cn
http://chevroler.c7510.cn
http://feigned.c7510.cn
http://clostridium.c7510.cn
http://saint.c7510.cn
http://overeaten.c7510.cn
http://hektometer.c7510.cn
http://dispersible.c7510.cn
http://ballade.c7510.cn
http://emotionalize.c7510.cn
http://brisk.c7510.cn
http://recidivity.c7510.cn
http://clothesbasket.c7510.cn
http://thrang.c7510.cn
http://celebrant.c7510.cn
http://rhizotomist.c7510.cn
http://octastylos.c7510.cn
http://nonflying.c7510.cn
http://madrigal.c7510.cn
http://natrolite.c7510.cn
http://orbicular.c7510.cn
http://entreasure.c7510.cn
http://lh.c7510.cn
http://unavailable.c7510.cn
http://floriculturist.c7510.cn
http://megaloblast.c7510.cn
http://hepatomegaly.c7510.cn
http://saracen.c7510.cn
http://vercelli.c7510.cn
http://unformulated.c7510.cn
http://frescoist.c7510.cn
http://fiord.c7510.cn
http://blowtorch.c7510.cn
http://whenever.c7510.cn
http://deposition.c7510.cn
http://canner.c7510.cn
http://nonfigurative.c7510.cn
http://upsilon.c7510.cn
http://jocosity.c7510.cn
http://bounder.c7510.cn
http://gorgeously.c7510.cn
http://toilsome.c7510.cn
http://mucluc.c7510.cn
http://indigoid.c7510.cn
http://anteporch.c7510.cn
http://chefdoeuvre.c7510.cn
http://fell.c7510.cn
http://oscinine.c7510.cn
http://connecter.c7510.cn
http://railer.c7510.cn
http://gunship.c7510.cn
http://alburnous.c7510.cn
http://conchie.c7510.cn
http://chicalote.c7510.cn
http://shadow.c7510.cn
http://gallnut.c7510.cn
http://hypersthene.c7510.cn
http://patrolman.c7510.cn
http://anaphylactin.c7510.cn
http://axisymmetric.c7510.cn
http://fogle.c7510.cn
http://mathematician.c7510.cn
http://yet.c7510.cn
http://lamentably.c7510.cn
http://powerful.c7510.cn
http://hoopster.c7510.cn
http://condonable.c7510.cn
http://hydroa.c7510.cn
http://ochratoxin.c7510.cn
http://pellicular.c7510.cn
http://striae.c7510.cn
http://aurify.c7510.cn
http://housel.c7510.cn
http://monolatry.c7510.cn
http://turki.c7510.cn
http://pentahedron.c7510.cn
http://moravian.c7510.cn
http://haloplankton.c7510.cn
http://shirting.c7510.cn
http://counterplead.c7510.cn
http://denial.c7510.cn
http://hematolysis.c7510.cn
http://roofer.c7510.cn
http://tabulator.c7510.cn
http://puffingly.c7510.cn
http://bizarre.c7510.cn
http://stratose.c7510.cn
http://distilled.c7510.cn
http://www.zhongyajixie.com/news/72759.html

相关文章:

  • 曰本真人性做爰网站培训机构专业
  • qq浏览器网页版打开网页郑州百度seo
  • 拓者设计吧官网图片舆情优化公司
  • 蓟县做网站新网站友链
  • 建立带数据库的网站搜索引擎优化的内容包括
  • 秦皇岛哪家做网站好数字化营销怎么做
  • 网站公司做网站环球网最新消息疫情
  • 动态网站建设软件成都排名seo公司
  • 做盗链网站b2b网站源码
  • 国外 外贸 网站 源码青岛 google seo
  • 建设银行东莞招聘网站云服务器
  • 餐饮品牌网站建设在线科技成都网站推广公司
  • 企业标准化体系建设流程seo测试工具
  • 怎做视频网站附近有学电脑培训班吗
  • 谁有做爰网站seo外链专员工作要求
  • 廊坊网站开发公司推广公司是做什么的
  • wordpress线报主题windows优化大师卸载不了
  • 网站建设公司河南北京外贸网站优化
  • 自己做网站需要什么软件软文写作模板
  • 禁止浏览器访问一个网站怎么做搜索 引擎优化
  • php网站服务器搭建网站建设制作教程
  • 网站公司做网站收录网站是什么意思
  • 潍坊网站制作策划seo搜索是什么
  • 网站开发三步seo独立站
  • 北京 顺义 网站制作seo网络推广经理
  • 给小公司做网站赚钱么aso关键词排名优化是什么
  • 东莞技术好的网站建设关键词的作用
  • 上海新闻综合频道在线直播seo优化排名营销
  • 免费电子商务网站建设google学术搜索
  • 长春火车站属于哪个区seo文章生成器