介绍一下Spark将RDD转换成DataFrame的两种方式。
- 通过是使用case class的方式,不过在scala 2.10中最大支持22个字段的case class,这点需要注意
- 是通过spark内部的StructType方式,将普通的RDD转换成DataFrame 装换成DataFrame后,就可以使用SparkSQL来进行数据筛选过滤等操作
方法一
1 | import org.apache.spark.rdd.RDD |
方法二
1 | import org.apache.spark.rdd.RDD |