您的当前位置:首页正文

Spark读取CSV文件(Scala)

来源:九壹网

Spark核心代码

import org.apache.spark.sql.SparkSession
import org.apache.spark.sql.types.{DataTypes, StructField, StructType}

object ReadCSV {

  val schema = new StructType(Array(
    StructField("product_id",DataTypes.StringType),
    StructField("product_name",DataTypes.StringType),
    StructField("enterprise_name",DataTypes.StringType),
    StructField("entry_name",DataTypes.StringType)
  ))
  def main(args: Array[String]): Unit = {

    val spark = SparkSession
      .builder()
      .master("local")
      .appName("SNF-Income")
      .getOrCreate()

    val salesDF = spark.read
      .option("header", "true")
      .schema(schema)
      .format("csv")
      .load("./data/income_sales.csv")

    salesDF.show(10)
  }

}

参数说明:

format: 指定读取的文件格式:csv。

header: 是否指定首行作为schema。

schema: 指定数据字段的格式。

option里面的参数说明:

参数 说明
header默认为falase, 将第一行作为列名
encoding默认是utf-8, 通过给定的编码类型进行解码
sep        默认是“,”,指单个字符分割字段和值
inferSchema默认为false, 从数据自动推断输入模式,需要对数据进行一次额外的传递。如:option("inferSchema",true.toString) ; 这是自动推断属性列的数据类型
multiLine  默认为false,解析第一条记录,该记录可能跨越多行。
nullValue默认是空的字符串,设置null值的字符串形式。从2.0.1开始,适用于所有支持的类型,包括字符串类型
emptyValue 默认是空字符串,设置一个空值的字符串。

因篇幅问题不能全部显示,请点此查看更多更全内容

Top