LSTM

LSTM - 22

版本

  • 名称: LSTM (GitHub)

  • 域名: main

  • since_version: 22

  • 函数: False

  • support_level: SupportType.COMMON

  • 形状推断: True

此版本的运算符自版本22起可用。

摘要

计算一个单层LSTM。此操作符通常通过一些自定义实现(如CuDNN)来支持。

符号:

  • X - 输入张量

  • i - 输入门

  • o - 输出门

  • f - 遗忘门

  • c - 细胞门

  • t - 时间步长(t-1 表示前一个时间步长)

  • W[iofc] - W参数权重矩阵,用于输入、输出、遗忘和细胞门

  • R[iofc] - 输入、输出、遗忘和细胞门的R递归权重矩阵

  • Wb[iofc] - 输入、输出、遗忘和细胞门的偏置向量

  • Rb[iofc] - 输入、输出、遗忘和细胞门的R偏置向量

  • P[iof] - 输入、输出和遗忘门的P窥视孔权重向量

  • WB[iofc] - 用于反向输入、输出、遗忘和单元门的W参数权重矩阵

  • RB[iofc] - 用于反向输入、输出、遗忘和细胞门的R递归权重矩阵

  • WBb[iofc] - 用于反向输入、输出、遗忘和单元门的W偏置向量

  • RBb[iofc] - 用于反向输入、输出、遗忘和单元门的R偏置向量

  • PB[iof] - 用于后向输入、输出和遗忘门的P窥视孔权重向量

  • H - 隐藏状态

  • num_directions - 如果方向是双向的则为2,否则为1

激活函数:

  • Relu(x) - 最大值(0, x)

  • Tanh(x) - (1 - e^{-2x})/(1 + e^{-2x})

  • Sigmoid(x) - 1/(1 + e^{-x})

注意:以下是可选的

  • 仿射变换(x) - alpha*x + beta

  • LeakyRelu(x) - 如果 x >= 0 则返回 x,否则返回 alpha * x

  • ThresholdedRelu(x) - 如果 x >= alpha 则返回 x,否则返回 0

  • ScaledTanh(x) - alphaTanh(betax)

  • HardSigmoid(x) - min(max(alpha*x + beta, 0), 1)

  • Elu(x) - 如果 x >= 0 则为 x,否则为 alpha*(e^x - 1)

  • Softsign(x) - x/(1 + |x|)

  • Softplus(x) - log(1 + e^x)

方程(默认:f=Sigmoid, g=Tanh, h=Tanh):

  • it = f(Xt*(Wi^T) + Ht-1*(Ri^T) + Pi (.) Ct-1 + Wbi + Rbi)

  • ft = f(Xt*(Wf^T) + Ht-1*(Rf^T) + Pf (.) Ct-1 + Wbf + Rbf)

  • ct = g(Xt*(Wc^T) + Ht-1*(Rc^T) + Wbc + Rbc)

  • Ct = ft (.) Ct-1 + it (.) ct

  • ot = f(Xt*(Wo^T) + Ht-1*(Ro^T) + Po (.) Ct + Wbo + Rbo)

  • Ht = ot (.) h(Ct) 此运算符具有可选输入/输出。有关可选参数表示的更多详细信息,请参见ONNX IR。可以使用空字符串代替实际参数的名称来表示缺少的参数。尾随的可选参数(后面没有实际参数的参数)也可以简单地省略。

属性

  • activation_alpha - FLOATS :

    一些激活函数使用的可选缩放值。这些值按照激活函数的顺序被消耗,例如在LSTM中的(f, g, h)。默认值与相应的ONNX运算符相同。例如,对于LeakyRelu,默认的alpha值为0.01。

  • activation_beta - FLOATS :

    一些激活函数使用的可选缩放值。这些值按照激活函数的顺序被消耗,例如LSTM中的(f, g, h)。默认值与相应的ONNX运算符相同。

  • 激活函数 - 字符串 :

    一个包含3个(如果是双向的则为6个)激活函数的列表,用于输入、输出、遗忘、单元和隐藏。激活函数必须是上述指定的激活函数之一。可选:如果未指定,请参阅默认的方程。

  • clip - 浮点数 :

    单元剪裁阈值。剪裁将张量的元素限制在[-threshold, +threshold]范围内,并应用于激活函数的输入。如果未指定,则不进行剪裁。

  • 方向 - 字符串 (默认是 'forward'):

    指定RNN是前向、反向还是双向的。必须是forward(默认)、reverse或bidirectional之一。

  • hidden_size - INT :

    隐藏层中的神经元数量

  • input_forget - INT (默认值为 '0'):

    如果为1,则将输入门和遗忘门耦合。

  • 布局 - INT (默认是 '0'):

    输入X、initial_h、initial_c和输出Y、Y_h、Y_c的形状格式。如果为0,则预期以下形状:X.shape = [seq_length, batch_size, input_size], Y.shape = [seq_length, num_directions, batch_size, hidden_size], initial_h.shape = Y_h.shape = initial_c.shape = Y_c.shape = [num_directions, batch_size, hidden_size]。如果为1,则预期以下形状:X.shape = [batch_size, seq_length, input_size], Y.shape = [batch_size, seq_length, num_directions, hidden_size], initial_h.shape = Y_h.shape = initial_c.shape = Y_c.shape = [batch_size, num_directions, hidden_size]。

输入

输入数量在3到8之间。

  • X (异构) - T:

    输入序列被打包(并可能填充)成一个形状为[seq_length, batch_size, input_size]的三维张量。

  • W (异构) - T:

    门的权重张量。沿维度0连接W[iofc]WB[iofc](如果是双向的)。张量的形状为[num_directions, 4*hidden_size, input_size]

  • R (异质的) - T:

    递归权重张量。沿维度0连接R[iofc]RB[iofc](如果是双向的)。该张量的形状为[num_directions, 4*hidden_size, hidden_size]

  • B(可选,异构)- T

    输入门的偏置张量。沿维度0连接[Wb[iofc], Rb[iofc]][WBb[iofc], RBb[iofc]](如果是双向的)。该张量的形状为[num_directions, 8*hidden_size]。可选:如果未指定,则假定为0。

  • sequence_lens(可选,异构) - T1:

    可选的张量,用于指定批次中序列的长度。如果未指定,则假定批次中的所有序列都具有长度seq_length。它的形状为[batch_size]

  • initial_h(可选,异构) - T:

    隐藏层的可选初始值。如果未指定,则假定为0。它的形状为[num_directions, batch_size, hidden_size]

  • initial_c (可选, 异构) - T:

    单元格的初始值是可选的。如果未指定,则假定为0。它的形状为[num_directions, batch_size, hidden_size]

  • P (可选, 异构) - T:

    窥视孔的权重张量。沿维度0连接P[iof]PB[iof](如果是双向的)。它的形状为[num_directions, 3*hidde_size]。可选:如果未指定 - 假定为0。

输出

在0到3个输出之间。

  • Y (可选, 异构) - T:

    一个张量,它连接了所有隐藏层的中间输出值。它的形状为 [seq_length, num_directions, batch_size, hidden_size]

  • Y_h(可选,异构) - T:

    隐藏层的最后一个输出值。它的形状为 [num_directions, batch_size, hidden_size]

  • Y_c(可选,异构) - T:

    单元格的最后一个输出值。它的形状为 [num_directions, batch_size, hidden_size]

类型约束

  • T 在 ( tensor(bfloat16), tensor(double), tensor(float), tensor(float16) ):

    将输入和输出类型限制为浮点张量。

  • T1 在 ( tensor(int32) ) 中:

    将seq_lens限制为整数张量。

LSTM - 14

版本

  • 名称: LSTM (GitHub)

  • 域名: main

  • since_version: 14

  • 函数: False

  • support_level: SupportType.COMMON

  • 形状推断: True

此版本的运算符自版本14起可用。

摘要

计算一个单层LSTM。此操作符通常通过一些自定义实现(如CuDNN)来支持。

符号:

  • X - 输入张量

  • i - 输入门

  • o - 输出门

  • f - 遗忘门

  • c - 细胞门

  • t - 时间步长(t-1 表示前一个时间步长)

  • W[iofc] - W参数权重矩阵,用于输入、输出、遗忘和细胞门

  • R[iofc] - 输入、输出、遗忘和细胞门的R递归权重矩阵

  • Wb[iofc] - 输入、输出、遗忘和细胞门的偏置向量

  • Rb[iofc] - 输入、输出、遗忘和细胞门的R偏置向量

  • P[iof] - 输入、输出和遗忘门的P窥视孔权重向量

  • WB[iofc] - 用于反向输入、输出、遗忘和单元门的W参数权重矩阵

  • RB[iofc] - 用于反向输入、输出、遗忘和细胞门的R递归权重矩阵

  • WBb[iofc] - 用于反向输入、输出、遗忘和单元门的W偏置向量

  • RBb[iofc] - 用于反向输入、输出、遗忘和单元门的R偏置向量

  • PB[iof] - 用于后向输入、输出和遗忘门的P窥视孔权重向量

  • H - 隐藏状态

  • num_directions - 如果方向是双向的则为2,否则为1

激活函数:

  • Relu(x) - 最大值(0, x)

  • Tanh(x) - (1 - e^{-2x})/(1 + e^{-2x})

  • Sigmoid(x) - 1/(1 + e^{-x})

注意:以下是可选的

  • 仿射变换(x) - alpha*x + beta

  • LeakyRelu(x) - 如果 x >= 0 则返回 x,否则返回 alpha * x

  • ThresholdedRelu(x) - 如果 x >= alpha 则返回 x,否则返回 0

  • ScaledTanh(x) - alphaTanh(betax)

  • HardSigmoid(x) - min(max(alpha*x + beta, 0), 1)

  • Elu(x) - 如果 x >= 0 则为 x,否则为 alpha*(e^x - 1)

  • Softsign(x) - x/(1 + |x|)

  • Softplus(x) - log(1 + e^x)

方程(默认:f=Sigmoid, g=Tanh, h=Tanh):

  • it = f(Xt*(Wi^T) + Ht-1*(Ri^T) + Pi (.) Ct-1 + Wbi + Rbi)

  • ft = f(Xt*(Wf^T) + Ht-1*(Rf^T) + Pf (.) Ct-1 + Wbf + Rbf)

  • ct = g(Xt*(Wc^T) + Ht-1*(Rc^T) + Wbc + Rbc)

  • Ct = ft (.) Ct-1 + it (.) ct

  • ot = f(Xt*(Wo^T) + Ht-1*(Ro^T) + Po (.) Ct + Wbo + Rbo)

  • Ht = ot (.) h(Ct) 此运算符具有可选输入/输出。有关可选参数表示的更多详细信息,请参见ONNX IR。可以使用空字符串代替实际参数的名称来表示缺少的参数。尾随的可选参数(后面没有实际参数的参数)也可以简单地省略。

属性

  • activation_alpha - FLOATS :

    一些激活函数使用的可选缩放值。这些值按照激活函数的顺序被消耗,例如在LSTM中的(f, g, h)。默认值与相应的ONNX运算符相同。例如,对于LeakyRelu,默认的alpha值为0.01。

  • activation_beta - FLOATS :

    一些激活函数使用的可选缩放值。这些值按照激活函数的顺序被消耗,例如LSTM中的(f, g, h)。默认值与相应的ONNX运算符相同。

  • 激活函数 - 字符串 :

    一个包含3个(如果是双向的则为6个)激活函数的列表,用于输入、输出、遗忘、单元和隐藏。激活函数必须是上述指定的激活函数之一。可选:如果未指定,请参阅默认的方程。

  • clip - 浮点数 :

    单元剪裁阈值。剪裁将张量的元素限制在[-threshold, +threshold]范围内,并应用于激活函数的输入。如果未指定,则不进行剪裁。

  • 方向 - 字符串 (默认是 'forward'):

    指定RNN是前向、反向还是双向的。必须是forward(默认)、reverse或bidirectional之一。

  • hidden_size - INT :

    隐藏层中的神经元数量

  • input_forget - INT (默认值为 '0'):

    如果为1,则将输入门和遗忘门耦合。

  • 布局 - INT (默认是 '0'):

    输入X、initial_h、initial_c和输出Y、Y_h、Y_c的形状格式。如果为0,则预期以下形状:X.shape = [seq_length, batch_size, input_size], Y.shape = [seq_length, num_directions, batch_size, hidden_size], initial_h.shape = Y_h.shape = initial_c.shape = Y_c.shape = [num_directions, batch_size, hidden_size]。如果为1,则预期以下形状:X.shape = [batch_size, seq_length, input_size], Y.shape = [batch_size, seq_length, num_directions, hidden_size], initial_h.shape = Y_h.shape = initial_c.shape = Y_c.shape = [batch_size, num_directions, hidden_size]。

输入

输入数量在3到8之间。

  • X (异构) - T:

    输入序列被打包(并可能填充)成一个形状为[seq_length, batch_size, input_size]的三维张量。

  • W (异构) - T:

    门的权重张量。沿维度0连接W[iofc]WB[iofc](如果是双向的)。张量的形状为[num_directions, 4*hidden_size, input_size]

  • R (异质的) - T:

    递归权重张量。沿维度0连接R[iofc]RB[iofc](如果是双向的)。该张量的形状为[num_directions, 4*hidden_size, hidden_size]

  • B(可选,异构)- T

    输入门的偏置张量。沿维度0连接[Wb[iofc], Rb[iofc]][WBb[iofc], RBb[iofc]](如果是双向的)。该张量的形状为[num_directions, 8*hidden_size]。可选:如果未指定,则假定为0。

  • sequence_lens(可选,异构) - T1:

    可选的张量,用于指定批次中序列的长度。如果未指定,则假定批次中的所有序列都具有长度seq_length。它的形状为[batch_size]

  • initial_h(可选,异构) - T:

    隐藏层的可选初始值。如果未指定,则假定为0。它的形状为[num_directions, batch_size, hidden_size]

  • initial_c (可选, 异构) - T:

    单元格的初始值是可选的。如果未指定,则假定为0。它的形状为[num_directions, batch_size, hidden_size]

  • P (可选, 异构) - T:

    窥视孔的权重张量。沿维度0连接P[iof]PB[iof](如果是双向的)。它的形状为[num_directions, 3*hidde_size]。可选:如果未指定 - 假定为0。

输出

在0到3个输出之间。

  • Y (可选, 异构) - T:

    一个张量,它连接了所有隐藏层的中间输出值。它的形状为 [seq_length, num_directions, batch_size, hidden_size]

  • Y_h(可选,异构) - T:

    隐藏层的最后一个输出值。它的形状为 [num_directions, batch_size, hidden_size]

  • Y_c(可选,异构) - T:

    单元格的最后一个输出值。它的形状为 [num_directions, batch_size, hidden_size]

类型约束

  • T 在 ( tensor(double), tensor(float), tensor(float16) ) 中:

    将输入和输出类型限制为浮点张量。

  • T1 在 ( tensor(int32) ) 中:

    将seq_lens限制为整数张量。

LSTM - 7

版本

  • 名称: LSTM (GitHub)

  • 域名: main

  • since_version: 7

  • 函数: False

  • support_level: SupportType.COMMON

  • 形状推断: True

此版本的运算符自版本7起可用。

总结

计算一个单层LSTM。此操作符通常通过一些自定义实现(如CuDNN)来支持。

符号:

X - 输入张量

i - 输入门

o - 输出门

f - 遗忘门

c - 细胞门

t - 时间步长(t-1 表示前一个时间步长)

W[iofc] - W参数权重矩阵,用于输入、输出、遗忘和细胞门

R[iofc] - 输入、输出、遗忘和细胞门的R递归权重矩阵

Wb[iofc] - 输入、输出、遗忘和细胞门的偏置向量

Rb[iofc] - 输入、输出、遗忘和细胞门的R偏置向量

P[iof] - 输入、输出和遗忘门的P窥视孔权重向量

WB[iofc] - 用于反向输入、输出、遗忘和单元门的W参数权重矩阵

RB[iofc] - 用于反向输入、输出、遗忘和细胞门的R递归权重矩阵

WBb[iofc] - 用于反向输入、输出、遗忘和单元门的W偏置向量

RBb[iofc] - 用于反向输入、输出、遗忘和单元门的R偏置向量

PB[iof] - 用于后向输入、输出和遗忘门的P窥视孔权重向量

H - 隐藏状态

num_directions - 如果方向是双向的则为2,否则为1

激活函数:

Relu(x) - 最大值(0, x)

Tanh(x) - (1 - e^{-2x})/(1 + e^{-2x})

Sigmoid(x) - 1/(1 + e^{-x})

(注意:以下是可选的)

仿射变换(x) - alpha*x + beta

LeakyRelu(x) - 如果 x >= 0 则返回 x,否则返回 alpha * x

ThresholdedRelu(x) - 如果 x >= alpha 则返回 x,否则返回 0

ScaledTanh(x) - alphaTanh(betax)

HardSigmoid(x) - min(max(alpha*x + beta, 0), 1)

Elu(x) - 如果 x >= 0 则为 x,否则为 alpha*(e^x - 1)

Softsign(x) - x/(1 + |x|)

Softplus(x) - log(1 + e^x)

方程(默认:f=Sigmoid, g=Tanh, h=Tanh):

  • it = f(Xt*(Wi^T) + Ht-1*(Ri^T) + Pi (.) Ct-1 + Wbi + Rbi)

  • ft = f(Xt*(Wf^T) + Ht-1*(Rf^T) + Pf (.) Ct-1 + Wbf + Rbf)

  • ct = g(Xt*(Wc^T) + Ht-1*(Rc^T) + Wbc + Rbc)

  • Ct = ft (.) Ct-1 + it (.) ct

  • ot = f(Xt*(Wo^T) + Ht-1*(Ro^T) + Po (.) Ct + Wbo + Rbo)

  • Ht = ot (.) h(Ct) 此运算符具有可选输入/输出。有关可选参数表示的更多详细信息,请参见ONNX IR。可以使用空字符串代替实际参数的名称来表示缺少的参数。尾随的可选参数(后面没有实际参数的参数)也可以简单地省略。

属性

  • activation_alpha - FLOATS :

    一些激活函数使用的可选缩放值。这些值按照激活函数的顺序被消耗,例如在LSTM中的(f, g, h)。默认值与相应的ONNX运算符相同。例如,对于LeakyRelu,默认的alpha值为0.01。

  • activation_beta - FLOATS :

    一些激活函数使用的可选缩放值。这些值按照激活函数的顺序被消耗,例如LSTM中的(f, g, h)。默认值与相应的ONNX运算符相同。

  • 激活函数 - 字符串 :

    一个包含3个(如果是双向的则为6个)激活函数的列表,用于输入、输出、遗忘、单元和隐藏。激活函数必须是上述指定的激活函数之一。可选:如果未指定,请参阅默认的方程。

  • clip - 浮点数 :

    单元剪裁阈值。剪裁将张量的元素限制在[-threshold, +threshold]范围内,并应用于激活函数的输入。如果未指定,则不进行剪裁。

  • 方向 - 字符串 (默认是 'forward'):

    指定RNN是前向、反向还是双向的。必须是forward(默认)、reverse或bidirectional之一。

  • hidden_size - INT :

    隐藏层中的神经元数量

  • input_forget - INT (默认值为 '0'):

    如果为1,则将输入门和遗忘门耦合。

输入

输入数量在3到8之间。

  • X (异构) - T:

    输入序列被打包(并可能填充)成一个形状为[seq_length, batch_size, input_size]的三维张量。

  • W (异构) - T:

    门的权重张量。沿维度0连接W[iofc]WB[iofc](如果是双向的)。张量的形状为[num_directions, 4*hidden_size, input_size]

  • R (异质的) - T:

    递归权重张量。沿维度0连接R[iofc]RB[iofc](如果是双向的)。该张量的形状为[num_directions, 4*hidden_size, hidden_size]

  • B(可选,异构)- T

    输入门的偏置张量。沿维度0连接[Wb[iofc], Rb[iofc]][WBb[iofc], RBb[iofc]](如果是双向的)。该张量的形状为[num_directions, 8*hidden_size]。可选:如果未指定,则假定为0。

  • sequence_lens(可选,异构) - T1:

    可选的张量,用于指定批次中序列的长度。如果未指定,则假定批次中的所有序列都具有长度seq_length。它的形状为[batch_size]

  • initial_h(可选,异构) - T:

    隐藏层的可选初始值。如果未指定,则假定为0。它的形状为[num_directions, batch_size, hidden_size]

  • initial_c (可选, 异构) - T:

    单元格的初始值是可选的。如果未指定,则假定为0。它的形状为[num_directions, batch_size, hidden_size]

  • P (可选, 异构) - T:

    窥视孔的权重张量。沿维度0连接P[iof]PB[iof](如果是双向的)。它的形状为[num_directions, 3*hidde_size]。可选:如果未指定 - 假定为0。

输出

在0到3个输出之间。

  • Y (可选, 异构) - T:

    一个张量,它连接了所有隐藏层的中间输出值。它的形状为 [seq_length, num_directions, batch_size, hidden_size]

  • Y_h(可选,异构) - T:

    隐藏层的最后一个输出值。它的形状为 [num_directions, batch_size, hidden_size]

  • Y_c(可选,异构) - T:

    单元格的最后一个输出值。它的形状为[num_directions, batch_size, hidden_size]

类型约束

  • T 在 ( tensor(double), tensor(float), tensor(float16) ) 中:

    将输入和输出类型限制为浮点张量。

  • T1 在 ( tensor(int32) ) 中:

    将seq_lens限制为整数张量。

LSTM - 1

版本

  • 名称: LSTM (GitHub)

  • 域名: main

  • since_version: 1

  • 函数: False

  • support_level: SupportType.COMMON

  • 形状推断: True

此版本的运算符自版本1起可用。

摘要

计算一个单层LSTM。此操作符通常通过一些自定义实现(如CuDNN)来支持。

符号:

X - 输入张量

i - 输入门

o - 输出门

f - 遗忘门

c - 细胞门

t - 时间步长(t-1 表示前一个时间步长)

W[iofc] - W参数权重矩阵,用于输入、输出、遗忘和细胞门

R[iofc] - 输入、输出、遗忘和细胞门的R递归权重矩阵

Wb[iofc] - 输入、输出、遗忘和细胞门的偏置向量

Rb[iofc] - 输入、输出、遗忘和细胞门的R偏置向量

P[iof] - 输入、输出和遗忘门的P窥视孔权重向量

WB[iofc] - 用于反向输入、输出、遗忘和单元门的W参数权重矩阵

RB[iofc] - 用于反向输入、输出、遗忘和细胞门的R递归权重矩阵

WBb[iofc] - 用于反向输入、输出、遗忘和单元门的W偏置向量

RBb[iofc] - 用于反向输入、输出、遗忘和单元门的R偏置向量

PB[iof] - 用于后向输入、输出和遗忘门的P窥视孔权重向量

H - 隐藏状态

num_directions - 如果方向是双向的则为2,否则为1

激活函数:

Relu(x) - 最大值(0, x)

Tanh(x) - (1 - e^{-2x})/(1 + e^{-2x})

Sigmoid(x) - 1/(1 + e^{-x})

(注意:以下是可选的)

仿射变换(x) - alpha*x + beta

LeakyRelu(x) - 如果 x >= 0 则返回 x,否则返回 alpha * x

ThresholdedRelu(x) - 如果 x >= alpha 则返回 x,否则返回 0

ScaledTanh(x) - alphaTanh(betax)

HardSigmoid(x) - min(max(alpha*x + beta, 0), 1)

Elu(x) - 如果 x >= 0 则为 x,否则为 alpha*(e^x - 1)

Softsign(x) - x/(1 + |x|)

Softplus(x) - log(1 + e^x)

方程(默认:f=Sigmoid, g=Tanh, h=Tanh):

  • it = f(Xt*(Wi^T) + Ht-1*Ri + Pi (.) Ct-1 + Wbi + Rbi)

  • ft = f(Xt*(Wf^T) + Ht-1*Rf + Pf (.) Ct-1 + Wbf + Rbf)

  • ct = g(Xt*(Wc^T) + Ht-1*Rc + Wbc + Rbc)

  • Ct = ft (.) Ct-1 + it (.) ct

  • ot = f(Xt*(Wo^T) + Ht-1*Ro + Po (.) Ct + Wbo + Rbo)

  • Ht = ot (.) h(Ct)

属性

  • activation_alpha - FLOATS :

    一些激活函数使用的可选缩放值。这些值按照激活函数的顺序被消耗,例如在LSTM中的(f, g, h)。默认值与相应的ONNX运算符相同。例如,对于LeakyRelu,默认的alpha值为0.01。

  • activation_beta - FLOATS :

    一些激活函数使用的可选缩放值。这些值按照激活函数的顺序被消耗,例如LSTM中的(f, g, h)。默认值与相应的ONNX运算符相同。

  • 激活函数 - 字符串 :

    一个包含3个(如果是双向的则为6个)激活函数的列表,用于输入、输出、遗忘、单元和隐藏。激活函数必须是上述指定的激活函数之一。可选:如果未指定,请参阅默认的方程。

  • clip - 浮点数 :

    单元剪裁阈值。剪裁将张量的元素限制在[-threshold, +threshold]范围内,并应用于激活函数的输入。如果未指定,则不进行剪裁。

  • 方向 - 字符串 (默认是 'forward'):

    指定RNN是前向、反向还是双向的。必须是forward(默认)、reverse或bidirectional之一。

  • hidden_size - INT :

    隐藏层中的神经元数量

  • input_forget - INT (默认值为 '0'):

    如果为1,则将输入门和遗忘门耦合,默认为0。

  • output_sequence - INT (默认值为 '0'):

    如果隐藏的序列输出为0,则是可选的。默认值为0。

输入

输入数量在3到8之间。

  • X (异构) - T:

    输入序列被打包(并可能填充)成一个形状为[seq_length, batch_size, input_size]的三维张量。

  • W (异构) - T:

    门的权重张量。沿维度0连接W[iofc]WB[iofc](如果是双向的)。张量的形状为[num_directions, 4*hidden_size, input_size]

  • R (异质的) - T:

    递归权重张量。沿维度0连接R[iofc]RB[iofc](如果是双向的)。该张量的形状为[num_directions, 4*hidden_size, hidden_size]

  • B(可选,异构)- T

    输入门的偏置张量。沿维度0连接[Wb[iofc], Rb[iofc]][WBb[iofc], RBb[iofc]](如果是双向的)。该张量的形状为[num_directions, 8*hidden_size]。可选:如果未指定,则假定为0。

  • sequence_lens(可选,异构) - T1:

    可选的张量,用于指定批次中序列的长度。如果未指定,则假定批次中的所有序列都具有长度seq_length。它的形状为[batch_size]

  • initial_h(可选,异构) - T:

    隐藏层的可选初始值。如果未指定,则假定为0。它的形状为[num_directions, batch_size, hidden_size]

  • initial_c (可选, 异构) - T:

    单元格的初始值是可选的。如果未指定,则假定为0。它的形状为[num_directions, batch_size, hidden_size]

  • P (可选, 异构) - T:

    窥视孔的权重张量。沿维度0连接P[iof]PB[iof](如果是双向的)。它的形状为[num_directions, 3*hidde_size]。可选:如果未指定 - 假定为0。

输出

在0到3个输出之间。

  • Y (可选, 异构) - T:

    一个张量,它连接了所有隐藏层的中间输出值。它的形状为[seq_length, num_directions, batch_size, hidden_size]。如果output_sequence为0,则它是可选的。

  • Y_h(可选,异构) - T:

    隐藏层的最后一个输出值。它的形状为 [num_directions, batch_size, hidden_size]

  • Y_c(可选,异构) - T:

    单元格的最后一个输出值。它的形状为 [num_directions, batch_size, hidden_size]

类型约束

  • T 在 ( tensor(double), tensor(float), tensor(float16) ) 中:

    将输入和输出类型限制为浮点张量。

  • T1 在 ( tensor(int32) ) 中:

    将seq_lens限制为整数张量。