网站建设与管理教学视频下载,产品发布网站模板,网页源代码查看密码,哪里有做手机壳的的5.3 RDD、DF与DS转换
实际项目开发中#xff0c;常常需要对RDD、DataFrame及Dataset之间相互转换#xff0c;其中要点就是Schema约束结构信息。 1#xff09;、RDD转换DataFrame或者Dataset
转换DataFrame时#xff0c;定义Schema信息#xff0c;两种方式转换为Dataset时…5.3 RDD、DF与DS转换
实际项目开发中常常需要对RDD、DataFrame及Dataset之间相互转换其中要点就是Schema约束结构信息。 1、RDD转换DataFrame或者Dataset
转换DataFrame时定义Schema信息两种方式转换为Dataset时不仅需要Schema信息还需要RDD数据类型为CaseClass类型 2、Dataset或DataFrame转换RDD由于Dataset或DataFrame底层就是RDD所以直接调用rdd函数即可转换dataframe.rdd 或者dataset.rdd 3、DataFrame与Dataset之间转换由于DataFrame为Dataset特例所以Dataset直接调用toDF函数转换为DataFrame当将DataFrame转换为Dataset时使用函数as[Type]指定CaseClass类型即可。
范例演示分别读取people.txt文件数据封装到RDD、DataFrame及Dataset查看区别及相互转换。 第一步、加载文件数据封装不同数据结构 Dataset转换为RDD和DataFrame
第二步、加载JSON数据将DataFrame转换为Dataset 完整演示代码如下
import org.apache.spark.rdd.RDD
import org.apache.spark.sql.{DataFrame, Dataset, SparkSession}
/**
* 官方案例演示Dataset是什么
* http://spark.apache.org/docs/2.4.5/sql-getting-started.html#creating-datasets
*/
object SparkDatasetExample {
def main(args: Array[String]): Unit {
// 构建SparkSession实例对象
val spark: SparkSession SparkSession
.builder() // 使用建造者模式构建对象
.appName(this.getClass.getSimpleName.stripSuffix($))
.master(local[3])
.getOrCreate()
import spark.implicits._
// 演示案例一加载文本数据分别封装到RDD、DataFrame和Dataset中
// 其一、SparkContext加载封装RDD
val peoplesRDD: RDD[String] spark.sparkContext
.textFile(datas/resources/people.txt)
// 其二、调用text函数封装DataFrame
val peoplesDF: DataFrame spark.read.text(datas/resources/people.txt)
// 其三、调用textFile函数封装Dataset
val peoplesDS: Dataset[String] spark.read.textFile(datas/resources/people.txt)
// DataFrame转换为RDD
peoplesDF.rdd
// Dataset转换为RDD或者DataFrame
peoplesDS.toDF()
peoplesDS.rdd
// 演示案例二加载Json格式数据DataFrame转换为Dataset
val jsonDF: DataFrame spark.read.json(datas/resources/employees.json)
jsonDF.printSchema()
val jsonDS: Dataset[Employee] jsonDF.as[Employee]
jsonDS.show(10)
// 应用结束关闭资源
spark.stop()
}
}5.4 面试题如何理解RDD、DataFrame和Dataset
SparkSQL中常见面试题如何理解Spark中三种数据结构RDD、DataFrame和Dataset关系
第一、数据结构RDD
RDDResilient Distributed Datasets叫做弹性分布式数据集是Spark中最基本的数据抽象源码中是一个抽象类代表一个不可变、可分区、里面的元素可并行计算的集合。编译时类型安全但是无论是集群间的通信还是IO操作都需要对对象的结构和数据进行序列化和反序列化还存在较大的GC的性能开销会频繁的创建和销毁对象。
第二、数据结构DataFrame
与RDD类似DataFrame是一个分布式数据容器不过它更像数据库中的二维表格除了数据之外还记录这数据的结构信息即schema。DataFrame也是懒执行的性能上要比RDD高主要因为执行计划得到了优化。由于DataFrame每一行的数据结构一样且存在schema中Spark通过schema就能读懂数据因此在通信和IO时只需要序列化和反序列化数据而结构部分不用。Spark能够以二进制的形式序列化数据到JVM堆以外off-heap非堆的内存这些内存直接受操作系统管理也就不再受JVM的限制和GC的困扰了。但是DataFrame不是类型安全的
第三、数据结构Dataset
Dataset是DataFrame API的一个扩展是Spark最新的数据抽象结合了RDD和DataFrame的优点。DataFrameDataset[Row]Row表示表结构信息的类型DataFrame只知道字段但是不知道字段类型而Dataset是强类型的不仅仅知道字段而且知道字段类型。样例类CaseClass被用来在Dataset中定义数据的结构信息样例类中的每个属性名称直接对应到Dataset中的字段名称。Dataset具有类型安全检查也具有DataFrame的查询优化特性还支持编解码器当需要访问非堆上的数据时可以避免反序列化整个对象提高了效率。
RDD、DataFrame和DataSet之间的转换如下假设有个样例类case class Emp(name: String)相互转换 RDD转换到DataFramerdd.toDF(“name”) RDD转换到Datasetrdd.map(x Emp(x)).toDS DataFrame转换到Datasetdf.as[Emp] DataFrame转换到RDDdf.rdd Dataset转换到DataFrameds.toDF Dataset转换到RDDds.rdd RDD与DataFrame或者DataSet进行操作都需要引入隐式转换import spark.implicits._其中的spark是SparkSession对象的名称