pyspark.pandas.DataFrame.from_records

static DataFrame. from_records ( data : Union [ numpy.ndarray , List [ tuple ] , dict , pandas.core.frame.DataFrame ] , index : Union [ str , list , numpy.ndarray ] = None , exclude : list = None , columns : list = None , coerce_float : bool = False , nrows : int = None ) → pyspark.pandas.frame.DataFrame [source]

将结构化或记录的ndarray转换为DataFrame。

Parameters
data ndarray (structured dtype), list of tuples, dict, or DataFrame
index string, list of fields, array-like

用作索引的数组字段,或者使用的一组特定输入标签

exclude sequence, default None

要排除的列或字段

columns sequence, default None

要使用的列名。如果传递的数据没有与之关联的名称,此参数为列提供名称。否则,此参数指示结果中列的顺序(任何在数据中找不到的名称将变为全NA列)

coerce_float boolean, default False

尝试将非字符串、非数字对象(如 decimal.Decimal)的值转换为浮点数,适用于 SQL 结果集

nrows int, default None

如果数据是迭代器,要读取的行数

Returns
df DataFrame

示例

使用字典作为输入

>>> ps.DataFrame.from_records({'A': [1, 2, 3]})
   A
0  1
1  2
2  3

使用元组列表作为输入

>>> ps.DataFrame.from_records([(1, 2), (3, 4)])
   0  1
0  1  2
1  3  4

使用 NumPy 数组作为输入

>>> ps.DataFrame.from_records(np.eye(3))
     0    1    2
0  1.0  0.0  0.0
1  0.0  1.0  0.0
2  0.0  0.0  1.0