HardSigmoid

HardSigmoid - 22

版本

  • 名称: HardSigmoid (GitHub)

  • 域名: main

  • since_version: 22

  • function: True

  • support_level: SupportType.COMMON

  • 形状推断: True

此版本的运算符自版本22起可用。

摘要

HardSigmoid 接受一个输入数据(Tensor)并生成一个输出数据 (Tensor),其中 HardSigmoid 函数 y = max(0, min(1, alpha * x + beta)) 被逐元素应用于张量。

函数体

此运算符的函数定义。

<
  domain: "",
  opset_import: ["" : 18]
>
HardSigmoid <beta,alpha>(X) => (Y)
{
   Alpha = Constant <value_float: float = @alpha> ()
   AlphaCast = CastLike (Alpha, X)
   Beta = Constant <value_float: float = @beta> ()
   BetaCast = CastLike (Beta, X)
   Zero = Constant <value: tensor = float {0}> ()
   ZeroCast = CastLike (Zero, X)
   One = Constant <value: tensor = float {1}> ()
   OneCast = CastLike (One, X)
   AlphaMulX = Mul (X, AlphaCast)
   AlphaMulXAddBeta = Add (AlphaMulX, BetaCast)
   MinOneOrAlphaMulXAddBeta = Min (AlphaMulXAddBeta, OneCast)
   Y = Max (MinOneOrAlphaMulXAddBeta, ZeroCast)
}

属性

  • alpha - FLOAT (默认值为 '0.2'):

    alpha的值。

  • beta - FLOAT (默认值为 '0.5'):

    β的值。

输入

  • X (异构) - T:

    输入张量

输出

  • Y (异构) - T:

    输出张量

类型约束

  • T 在 ( tensor(bfloat16), tensor(double), tensor(float), tensor(float16) ):

    将输入和输出类型限制为浮点张量。

HardSigmoid - 6

版本

  • 名称: HardSigmoid (GitHub)

  • 域名: main

  • since_version: 6

  • function: True

  • support_level: SupportType.COMMON

  • 形状推断: True

此版本的运算符自版本6起可用。

摘要

HardSigmoid 接受一个输入数据(Tensor)并生成一个输出数据(Tensor),其中 HardSigmoid 函数 y = max(0, min(1, alpha * x + beta)) 被逐元素应用于张量。

函数体

此运算符的函数定义。

<
  domain: "",
  opset_import: ["" : 18]
>
HardSigmoid <beta,alpha>(X) => (Y)
{
   Alpha = Constant <value_float: float = @alpha> ()
   AlphaCast = CastLike (Alpha, X)
   Beta = Constant <value_float: float = @beta> ()
   BetaCast = CastLike (Beta, X)
   Zero = Constant <value: tensor = float {0}> ()
   ZeroCast = CastLike (Zero, X)
   One = Constant <value: tensor = float {1}> ()
   OneCast = CastLike (One, X)
   AlphaMulX = Mul (X, AlphaCast)
   AlphaMulXAddBeta = Add (AlphaMulX, BetaCast)
   MinOneOrAlphaMulXAddBeta = Min (AlphaMulXAddBeta, OneCast)
   Y = Max (MinOneOrAlphaMulXAddBeta, ZeroCast)
}

属性

  • alpha - FLOAT (默认为 '0.2'):

    alpha的值。

  • beta - FLOAT (默认为 '0.5'):

    β的值。

输入

  • X (异构) - T:

    输入张量

输出

  • Y (异构) - T:

    输出张量

类型约束

  • T 在 ( tensor(double), tensor(float), tensor(float16) ) 中:

    将输入和输出类型限制为浮点张量。

HardSigmoid - 1

版本

  • 名称: HardSigmoid (GitHub)

  • 域名: main

  • since_version: 1

  • 函数: False

  • support_level: SupportType.COMMON

  • 形状推断: False

此版本的运算符自版本1起可用。

总结

HardSigmoid 接受一个输入数据(Tensor)并生成一个输出数据 (Tensor),其中 HardSigmoid 函数 y = max(0, min(1, alpha * x + beta)) 被逐元素应用于张量。

属性

  • alpha - FLOAT (默认值为 '0.2'):

    alpha 的默认值为 0.2

  • beta - FLOAT (默认值为 '0.5'):

    beta 的默认值为 0.5

  • consumed_inputs - INTS :

    遗留优化属性。

输入

  • X (异构) - T:

    输入张量

输出

  • Y (异构) - T:

    输出张量

类型约束

  • T 在 ( tensor(double), tensor(float), tensor(float16) ) 中:

    将输入和输出类型限制为浮点张量。