Flink流处理-Task之OnlineStatisticsTask
2021/11/8 6:12:30
本文主要是介绍Flink流处理-Task之OnlineStatisticsTask,对大家解决编程问题具有一定的参考价值,需要的程序猿们随着小编来一起学习吧!
OnlineStatisticsTask
package pers.aishuang.flink.streaming.task;
import org.apache.commons.lang.StringUtils;
import org.apache.flink.api.common.serialization.SimpleStringSchema;
import org.apache.flink.streaming.api.datastream.*;
import org.apache.flink.streaming.api.environment.StreamExecutionEnvironment;
import org.apache.flink.streaming.api.functions.timestamps.BoundedOutOfOrdernessTimestampExtractor;
import org.apache.flink.streaming.api.windowing.assigners.TumblingEventTimeWindows;
import org.apache.flink.streaming.api.windowing.time.Time;
import org.apache.flink.streaming.api.windowing.windows.TimeWindow;
import org.slf4j.Logger;
import org.slf4j.LoggerFactory;
import pers.aishuang.flink.streaming.async.AsyncHttpQueryFunction;
import pers.aishuang.flink.streaming.entity.ItcastDataPartObj;
import pers.aishuang.flink.streaming.entity.OnlineDataObj;
import pers.aishuang.flink.streaming.entity.VehicleInfoModel;
import pers.aishuang.flink.streaming.function.flatmap.VehicleInfoMapMysqlFunction;
import pers.aishuang.flink.streaming.function.map.LocactionInfoReidsFunction;
import pers.aishuang.flink.streaming.function.window.OnlineStatisticsWindowFunction;
import pers.aishuang.flink.streaming.sink.mysql.OnlineStatisticsMysqlSink;
import pers.aishuang.flink.streaming.source.mysql.VehicleInfoMysqlSource;
import pers.aishuang.flink.streaming.utils.JsonParsePartUtil;
import java.util.HashMap;
import java.util.concurrent.TimeUnit;
/**
- 实现车辆的实时上报故障诊断业务分析
- 1、读取车辆的数据,将jsob字符串转换成对象
- 2、读取出来正确的数据
- 3、将车辆的数据通过地理位置(经纬度)去redis中拉取(geoHash算法)
- -- 如果拉取数据成功,直接封装成对象
- -- 如果拉取省市区地理位置失败,异步数据流读取高德API请求地理位置并将数据保存到redis中
- 4、将从redis和高德API拉宽的数据进行合并处理
- 5、使用窗口操作,比如30s统计一些窗口内的故障告警对象返回
- 6、读取mysql数据库中的车辆静态数据,车辆车型车系,销售时间等
- 7、窗口数据和静态数据进行connect并flatMap,拉宽数据
- 8、将数据写入到mysql中
- 9、执行任务流环境
*/
public class OnlineStatisticsTask extends BaseTask{
private static final Logger logger = LoggerFactory.getLogger(OnlineStatisticsTask.class);
public static void main(String[] args) throws Exception{ //1. 初始化Flink流处理的执行环境(事件时间、checkpoint、hadoop name) StreamExecutionEnvironment env = getEnv(OnlineStatisticsTask.class.getSimpleName()); //2. 接入kafka数据源,消费kafka数据 DataStreamSource<String> kafkaStream = getKafkaStream( env, "__consumer_online_alarm_analysis_", SimpleStringSchema.class); //3. 将消费到的json字符串转换成ItcastDataPartObj对象 DataStream<ItcastDataPartObj> source = kafkaStream .map(JsonParsePartUtil::parseJsonToObject) //4. 过滤掉异常数据,根据errorDara属性判断(没有VIN号和终端时间 和json解析失败的数据都视为异常数据) .filter(obj -> StringUtils.isEmpty(obj.getErrorData())); //5. 读取redis中的位置数据<geohash,VehicleLocationModel> ,生成新的数据流 SingleOutputStreamOperator<ItcastDataPartObj> itcastDataMapStream = source.map(new LocactionInfoReidsFunction()); //6. 过滤出 redis拉宽成功的地理位置数据 SingleOutputStreamOperator<ItcastDataPartObj> okWithLocationStream = itcastDataMapStream .filter(obj -> StringUtils.isNotEmpty(obj.getProvince())); //7. 过滤出 redis拉框失败的地理位置数据 SingleOutputStreamOperator<ItcastDataPartObj> ngWithLocationStream = itcastDataMapStream .filter(obj -> StringUtils.isEmpty(obj.getProvince())); //8. 对redis拉框失败的地理位置数据使用异步IO访问高德地图地理位置查询地理位置信息,并将返回结果写入到reids中 //-- 异步数据流 :处理之后的数据(成功补齐数据和失败的ItcastDataPartObj) //-- 存在问题,http请求失败的数据还在里面,仍然缺少坐标详细信息 SingleOutputStreamOperator<ItcastDataPartObj> withLocationAsyncStream = AsyncDataStream //无序返回(可设置返回是否有序,先访问先返回,后访问后返回,设置有序会造成效率低,所以设置为无序) .unorderedWait( ngWithLocationStream, new AsyncHttpQueryFunction(), 3000, //设置超时时间,超过设定时间,认为任务请求失败,3000ms=》 3s TimeUnit.MICROSECONDS //超时单位 ); //9. 将redis拉宽的地理位置数据与高德API拉宽的地理位置数据进行上下合并(合流) //flatmap(FlatMap) / map(Map) 用于单流 // broadcast + connect + flatmap(CoFlatMap)/map(CoMap) 数据拉宽,主要用于两流的数据左右合并(不要求两流的数据类型一致) // union 数据数据上下合并,要求数据类型一致。 //FlatMap 和 Map是用于单流的,CoFlatMap和CoMap是用于两条流连接(co:connect) WindowedStream<ItcastDataPartObj, String, TimeWindow> windowStream = okWithLocationStream .union(withLocationAsyncStream) //10. 创建原始数据的30s的滚动窗口,根据vin进行分流操作 .assignTimestampsAndWatermarks( //水印乱序时间设为3s new BoundedOutOfOrdernessTimestampExtractor<ItcastDataPartObj>(Time.seconds(3)) { @Override public long extractTimestamp(ItcastDataPartObj element) { //指定JavaBean中某个字段数据作为事件时间,必须是long类型 return element.getTerminalTimeStamp(); } } ) //设置分组,指定JavaBean的vin字段作为分组字段 .keyBy(obj -> obj.getVin()) //设置窗口类型:为滚动事件时间窗口,并设置窗口大小 .window(TumblingEventTimeWindows.of(Time.seconds(30))); //11. 对原始数据的窗口流数据进行实时故障分析(区分出来告警数据和非告警数据19个告警字段) SingleOutputStreamOperator<OnlineDataObj> onlineStatisticsStream = windowStream .apply(new OnlineStatisticsWindowFunction()); //12. 加载业务中间表(7张表:车辆表、车辆类型表、车辆销售记录表、车辆用途表4张),并进行广播 DataStream<HashMap<String, VehicleInfoModel>> vehicleInfoBroadcastStream = env .addSource(new VehicleInfoMysqlSource()).broadcast(); //13. 将第11步和第12步的广播流结果进行关联,并应用拉宽操作。 //上报车辆不在库记载的直接丢了 SingleOutputStreamOperator<OnlineDataObj> result = onlineStatisticsStream .connect(vehicleInfoBroadcastStream) .flatMap(new VehicleInfoMapMysqlFunction()); //14. 将拉框后的结果数据写入到mysql数据库中 result.addSink(new OnlineStatisticsMysqlSink()); //15. 启动作业(触发执行) env.execute(OnlineStatisticsTask.class.getSimpleName()); }
}
这篇关于Flink流处理-Task之OnlineStatisticsTask的文章就介绍到这儿,希望我们推荐的文章对大家有所帮助,也希望大家多多支持为之网!
- 2024-11-23增量更新怎么做?-icode9专业技术文章分享
- 2024-11-23压缩包加密方案有哪些?-icode9专业技术文章分享
- 2024-11-23用shell怎么写一个开机时自动同步远程仓库的代码?-icode9专业技术文章分享
- 2024-11-23webman可以同步自己的仓库吗?-icode9专业技术文章分享
- 2024-11-23在 Webman 中怎么判断是否有某命令进程正在运行?-icode9专业技术文章分享
- 2024-11-23如何重置new Swiper?-icode9专业技术文章分享
- 2024-11-23oss直传有什么好处?-icode9专业技术文章分享
- 2024-11-23如何将oss直传封装成一个组件在其他页面调用时都可以使用?-icode9专业技术文章分享
- 2024-11-23怎么使用laravel 11在代码里获取路由列表?-icode9专业技术文章分享
- 2024-11-22怎么实现ansible playbook 备份代码中命名包含时间戳功能?-icode9专业技术文章分享