Spark自定义分区器
2021/12/14 23:46:54
本文主要是介绍Spark自定义分区器,对大家解决编程问题具有一定的参考价值,需要的程序猿们随着小编来一起学习吧!
Spark自定义分区器
- Spark分区介绍
- hash分区和Range分区
- 自定义分区代码案例,借鉴atguigu
Spark分区介绍
Spark 目前支持Hash 分区和 Range 分区,和用户自定义分区。Hash 分区为当前的默认分区。分区器直接决定了RDD 中分区的个数、RDD 中每条数据经过Shuffle 后进入哪个分区,进而决定了Reduce 的个数。
只有Key-Value 类型的RDD 才有分区器,非 Key-Value 类型的RDD 分区的值是 None
每个RDD 的分区 ID 范围:0 ~ (numPartitions - 1),决定这个值是属于那个分区的。
hash分区和Range分区
- Hash 分区:对于给定的 key,计算其hashCode,并除以分区个数取余
- Range 分区:将一定范围内的数据映射到一个分区中,尽量保证每个分区数据均匀,而且分区间有序
自定义分区代码案例,借鉴atguigu
package com.liwei.bigdata.spark.core.partition import org.apache.spark.rdd.RDD import org.apache.spark.{Partitioner, SparkConf, SparkContext} object Spark01_RDD_Partition{ def main(args: Array[String]): Unit = { val sparkConf: SparkConf = new SparkConf().setMaster("local[*]").setAppName("RDD") val sc: SparkContext = new SparkContext(sparkConf) val rdd = sc.makeRDD(List(("篮球", "xxxxxx"), ("足球", "xxxxxx"), ("乒乓球", "xxxxxx"), ("电竞", "xxxxxx"))) val pardd: RDD[(String, String)] = rdd.partitionBy(new MyPartitioner) pardd.saveAsTextFile("output") } /** * 自定义分区器 * 1.继承Partitioner * 2.重写方法 */ class MyPartitioner extends Partitioner{ //分区数量 override def numPartitions: Int = 4 //根据数据的key值返回数据的分区索引(从0开始) override def getPartition(key: Any): Int = { key match { case "篮球" => 0 case "足球" => 1 case "乒乓球" => 2 case _ => 3 } // if (key == "篮球"){ // 0 // }else if (key == "足球"){ // 1 // }else if (key == "乒乓球"){ // 2 // }else if (key == "电竞"){ // 3 // }else{ // 3 // } } } }
如有侵权,联系本人删除!!!
这篇关于Spark自定义分区器的文章就介绍到这儿,希望我们推荐的文章对大家有所帮助,也希望大家多多支持为之网!
- 2024-11-27消息中间件底层原理资料详解
- 2024-11-27RocketMQ底层原理资料详解:新手入门教程
- 2024-11-27MQ底层原理资料详解:新手入门教程
- 2024-11-27MQ项目开发资料入门教程
- 2024-11-27RocketMQ源码资料详解:新手入门教程
- 2024-11-27本地多文件上传简易教程
- 2024-11-26消息中间件源码剖析教程
- 2024-11-26JAVA语音识别项目资料的收集与应用
- 2024-11-26Java语音识别项目资料:入门级教程与实战指南
- 2024-11-26SpringAI:Java 开发的智能新利器