torch_frame.nn
torch_frame.nn.encoder
特征编码器的基类,将输入的 |
|
特征编码器,将每个stype张量转换为嵌入并执行最终的连接。 |
|
stype编码器的基类。 |
|
基于嵌入查找的分类特征编码器。 |
|
基于嵌入查找的多分类特征编码器。 |
|
基于线性函数的数值特征编码器。 |
|
一个数值转换器,将张量转换为分段线性表示,然后进行线性变换。 |
|
一个周期性编码器,利用正弦函数将输入张量转换为三维张量。 |
|
一个基于注意力的编码器,将输入的数字特征转换为三维张量。 |
|
基于线性函数的预计算嵌入特征编码器。 |
|
基于线性函数的编码器,具有指定模型输出嵌入特征。 |
|
简单地将形状为 |
|
用于时间戳类型的TimestampEncoder。 |
torch_frame.nn.encoding
对包含0到1之间值的输入数据进行循环编码。 |
|
位置编码在"Attention Is All You Need"论文中引入。 |
torch_frame.nn.conv
用于表卷积的基类,该卷积按列转换输入的pytorch张量。 |
|
在"重新审视用于表格数据的深度学习模型"论文中的FT-Transformer骨干网络。 |
|
在"Trompt: Towards a Better Deep Neural Network for Tabular Data"论文中介绍的Trompt单元。 |
|
在"ExcelFormer: A Neural Network Surpassing GBDTs on Tabular Data"论文中介绍的ExcelFormer层。 |
|
TabTransformer层在"TabTransformer: 使用上下文嵌入的表格数据建模"论文中引入。 |
torch_frame.nn.decoder
解码器的基类,将输入的列式PyTorch张量转换为应用预测头的输出张量。 |
|
在"Trompt: Towards a Better Deep Neural Network for Tabular Data"论文中介绍的Trompt下游。 |
|
在"ExcelFormer: A Neural Network Surpassing GBDTs on Tabular Data"论文中介绍的ExcelFormer解码器。 |
torch_frame.nn.models
在"Trompt: Towards a Better Deep Neural Network for Tabular Data"论文中介绍的Trompt模型。 |
|
FT-Transformer模型在"重新审视用于表格数据的深度学习模型"论文中提出。 |
|
在"ExcelFormer: A Neural Network Surpassing GBDTs on Tabular Data"论文中介绍的ExcelFormer模型。 |
|
TabNet模型在"TabNet: Attentive Interpretable Tabular Learning"论文中提出。 |
|
ResNet模型在"重新审视用于表格数据的深度学习模型"论文中介绍。 |
|
Tab-Transformer模型在"TabTransformer: Tabular Data Modeling Using Contextual Embeddings"论文中介绍。 |
|
轻量级MLP模型,它对列嵌入进行均值池化并应用MLP。 |