Spark—算子—spark缓存策略

2022/7/13 6:22:28

本文主要是介绍Spark—算子—spark缓存策略,对大家解决编程问题具有一定的参考价值,需要的程序猿们随着小编来一起学习吧!

Spark—算子—spark缓存策略

转换算子和操作算子

转换算子

转换算子:将一个RDD转换成另一个RDD,转换算子是懒执行,需要action算子来触发执行

操作算子

触发任务执行,一个action算子会触发一次任务执行,同时每一个action算子都会触发前面的代码执行
package com.core.day2
import org.apache.spark.rdd.RDD
import org.apache.spark.{SparkConf, SparkContext}

object Demo16Action {
  def main(args: Array[String]): Unit = {
    val conf = new SparkConf()
    conf.setMaster("local")
    conf.setAppName("Demo16Action")

    val sc = new SparkContext(conf)

    val linesRDD: RDD[String] = sc.textFile("data/students.txt")

    /**
     * 转换算子:将一个RDD转换成另一个RDD,转换算子是懒执行,需要action算子来触发执行
     *
     * 操作算子:触发任务执行,一个action算子会触发一次任务执行,同时每一个action算子都会
     * 触发前面的代码执行
     *
     *
     */
    val studentRDD: RDD[(String, String, Int, String, String)] = linesRDD
      .map(_.split(","))
      .map{
        case Array(id:String,name:String,age:String,gender:String,clazz:String) =>
        println("============================")
          (id,name,age.toInt,gender,clazz)
      }

    studentRDD.foreach(println)
    println("=================================")
    studentRDD.foreach(println)

    /**
     * action算子:action算子的返回值不一定是rdd,每一个action算子都会触发一个job任务执行
     * foreach:循环rdd
     * saveAsTextFile:保存数据
     * count:统计行数
     * collect:将rdd转换成集合
     * take:取top
     * reduce:全局聚合
     * sum:求和,rdd必须可以求和
     *
     */

    //保存数据
    studentRDD.saveAsTextFile("data/temp")

    /**
     * 将rdd转换成数组
     *
     * 处理的数据量很大时,会导致内存益处
     *
     */

    val array: Array[(String, String, Int, String, String)] = studentRDD.collect()

    //取出top
    val top: Array[(String, String, Int, String, String)] = studentRDD.take(10)

    val stuRDD: RDD[Int] = studentRDD.map(s => 1)
    val reduce: Int = stuRDD.reduce((x, y) => x + y)
    val sum: Double = stuRDD.sum()
    println(reduce)
    println(sum)

    while(true){
    }
  }
}

Spark缓存策略

package com.core.day2

import org.apache.spark.rdd.RDD
import org.apache.spark.storage.StorageLevel
import org.apache.spark.{SparkConf, SparkContext}

object Demo17Cache {
  def main(args: Array[String]): Unit = {
    /**
     * 缓存
     *
     */
    val conf = new SparkConf()
    conf.setMaster("local")
    conf.setAppName("Demo16Action")

    val sc = new SparkContext(conf)

    //设置checkpoint保存路径
    //sc.setCheckpointDir("data/checkpoint")

    //读取学生表数据
    val linesRDD: RDD[String] = sc.textFile("data/students.txt")


    //整理取出字段
    val mapRDD: RDD[Array[String]] = linesRDD.map(_.split(","))

    val studentRDD: RDD[(String, String, Int, String, String)] = mapRDD.map {
      case Array(id: String, name: String, age: String, gender: String, clazz: String) =>
        println("=======map============")
        (id, name, age.toInt, gender, clazz)
    }

    /**
     * 对多次使用的RDD进行缓存
     */

    //缓存在内存中
    //studentRDD.cache()
    //studentRDD.persist(StorageLevel.MEMORY_AND_DISK_SER)
    //studentRDD.persist(StorageLevel.MEMORY_AND_DISK)

    studentRDD.persist(StorageLevel.MEMORY_AND_DISK_SER)
    /**
     * checkpoint:将RDD的数据缓存到活hdfs中,任务失败了,数据也不会丢失
     * checkpoint: 主要是再spark streaming中使用,用来保证任务的高可用
     * cache:将数据缓存,在spark执行的服务器的内存或者磁盘上,如果任务失败,数据也就没来
     *
     */
    //studentRDD.persist()

   // studentRDD.checkpoint()

    //1、统计班级人数
    studentRDD
      .map {
        case (_, _, _, _, clazz: String) =>
          (clazz, 1)
      }
      .reduceByKey(_ + _)
      .saveAsTextFile("data/clazz_num")

    println("=" * 100)

    //统计性别的人数
    studentRDD
      .map {
        case (_, _, _, gender: String, _) =>
          (gender, 1)
      }
      .reduceByKey(_ + _)
      .saveAsTextFile("data/gender_num")


    //统计年龄的人数
    studentRDD
      .map {
        case (_, _, age: Int, _, _) =>
          (age, 1)
      }
      .reduceByKey(_ + _)
      .saveAsTextFile("data/age_num")


    while (true) {

    }
  }
}


这篇关于Spark—算子—spark缓存策略的文章就介绍到这儿,希望我们推荐的文章对大家有所帮助,也希望大家多多支持为之网!


扫一扫关注最新编程教程