pyspark.pandas.DataFrame.from_records ¶
-
static
DataFrame.
from_records
( data : Union [ numpy.ndarray , List [ tuple ] , dict , pandas.core.frame.DataFrame ] , index : Union [ str , list , numpy.ndarray ] = None , exclude : list = None , columns : list = None , coerce_float : bool = False , nrows : int = None ) → pyspark.pandas.frame.DataFrame [source] ¶ -
将结构化或记录的ndarray转换为DataFrame。
- Parameters
-
- data ndarray (structured dtype), list of tuples, dict, or DataFrame
- index string, list of fields, array-like
-
用作索引的数组字段,或者使用的一组特定输入标签
- exclude sequence, default None
-
要排除的列或字段
- columns sequence, default None
-
要使用的列名。如果传递的数据没有与之关联的名称,此参数为列提供名称。否则,此参数指示结果中列的顺序(任何在数据中找不到的名称将变为全NA列)
- coerce_float boolean, default False
-
尝试将非字符串、非数字对象(如 decimal.Decimal)的值转换为浮点数,适用于 SQL 结果集
- nrows int, default None
-
如果数据是迭代器,要读取的行数
- Returns
-
- df DataFrame
示例
使用字典作为输入
>>> ps.DataFrame.from_records({'A': [1, 2, 3]}) A 0 1 1 2 2 3
使用元组列表作为输入
>>> ps.DataFrame.from_records([(1, 2), (3, 4)]) 0 1 0 1 2 1 3 4
使用 NumPy 数组作为输入
>>> ps.DataFrame.from_records(np.eye(3)) 0 1 2 0 1.0 0.0 0.0 1 0.0 1.0 0.0 2 0.0 0.0 1.0