08 学生课程分数的Spark SQL分析
2021/5/20 19:55:25
本文主要是介绍08 学生课程分数的Spark SQL分析,对大家解决编程问题具有一定的参考价值,需要的程序猿们随着小编来一起学习吧!
读学生课程分数文件chapter4-data01.txt,创建DataFrame。
>>> url = "file:///usr/local/spark/mycode/rdd/chapter4-data01.txt"
>>> rdd = spark.sparkContext.textFile(url).map(lambda line:line.split(','))
>>> rdd.take(3)
[['Aaron', 'OperatingSystem', '100'], ['Aaron', 'Python', '50'], ['Aaron', 'ComputerNetwork', '30']]
>>> from pyspark.sql.types import IntegerType,StringType,StructField,StructType
>>> from pyspark.sql import Row
>>> fields = [StructField('name',StringType(),True),StructField('course',StringType(),True),StructField('score',IntegerType(),True)]
>>> schema = StructType(fields)
>>> data = rdd.map(lambda p:Row(p[0],p[1],int(p[2])))
>>> df_scs = spark.createDataFrame(data,schema)
>>> df_scs.printSchema()
>>> df_scs.show()
用DataFrame的操作或SQL语句完成以下数据分析要求,并和用RDD操作的实现进行对比:
- 每个分数+5分。
>>> df_scs.select('name','course',df_scs.score+5).show()
- 总共有多少学生?
>>> df_scs.select('name').distinct().count()
- 总共开设了哪些课程?
>>> df_scs.select('course').distinct().show()
- 每个学生选修了多少门课?
>>> df_scs.groupBy('name').count().show()
- 每门课程有多少个学生选?
>>> df_scs.groupBy('course').count().show()
- 每门课程大于95分的学生人数?
>>> df_scs.filter(df_scs.score>95).groupBy('course').count().show()
- Tom选修了几门课?每门课多少分?
>>> df_scs.filter(df_scs.name=='Tom').show()
- Tom的成绩按分数大小排序。
>>> df_scs.filter(df_scs.name=='Tom').orderBy(df_scs.score).show()
- Tom的平均分。
>>> df_scs.filter(df_scs.name=='Tom').agg({"score":"mean"}).show()
- 求每门课的平均分,最高分,最低分。
>>> df_scs.groupBy('course').avg('score').show()
>>> df_scs.groupBy('course').max('score').show()
>>> df_scs.groupBy('course').min('score').show()
- 求每门课的选修人数及平均分,精确到2位小数。
>>> from pyspark.sql.functions import *
>>> df_scs.select(countDistinct('name').alias('学生人数'),countDistinct('course').alias('课程数'),round(mean('score'),2).alias('所有课的平均分')).show()
- 每门课的不及格人数,通过率
>>> df_scs.filter(df_scs.score<60).groupBy('course').count().show()
- 结果可视化。
from pyspark.sql.types import IntegerType, StringType, StructField, StructType
fields = [StructField(...), ...]
schema = StructType(fields)
类型:http://spark.apache.org/docs/latest/sql-ref-datatypes.html
from pyspark.sql import Row
data = rdd.map(lambda p: Row(...))
Spark SQL DataFrame 操作
df.show()
df.printSchema()
df.count()
df.head(3)
df.collect()
df[‘name’]
df.name
df.first().asDict()
df.describe().show()
df.distinct()
df.filter(df['age'] > 21).show()
df.groupBy("age").count().show()
df.select('name', df['age‘] + 1).show()
df_scs.groupBy("course").avg('score').show()
df_scs.agg({"score": "mean"}).show()
df_scs.groupBy("course").agg({"score": "mean"}).show()
这篇关于08 学生课程分数的Spark SQL分析的文章就介绍到这儿,希望我们推荐的文章对大家有所帮助,也希望大家多多支持为之网!
- 2024-06-19《2023版Java工程师》课程升级公告
- 2024-06-15matplotlib作图不显示3D图,怎么办?
- 2024-06-1503-Loki 日志监控
- 2024-06-1504-让LLM理解知识 -Prompt
- 2024-06-05做软件测试需要懂代码吗?
- 2024-06-0514-ShardingSphere的分布式主键实现
- 2024-06-03为什么以及如何要进行架构设计权衡?
- 2024-05-31全网首发第二弹!软考2024年5月《软件设计师》真题+解析+答案!(11-20题)
- 2024-05-31全网首发!软考2024年5月《软件设计师》真题+解析+答案!(21-30题)
- 2024-05-30【Java】百万数据excel导出功能如何实现