介绍一下Spark将RDD转换成DataFrame的两种方式。
- 通过是使用case class的方式,不过在scala 2.10中最大支持22个字段的case class,这点需要注意
 - 是通过spark内部的StructType方式,将普通的RDD转换成DataFrame 装换成DataFrame后,就可以使用SparkSQL来进行数据筛选过滤等操作
 
方法一
1  | import org.apache.spark.rdd.RDD  | 
方法二
1  | import org.apache.spark.rdd.RDD  |