更新时间:2019年07月29日 15时45分17秒 来源:黑马程序员论坛
1.概述 早期的shark是spark团队在Hive之上设计的一套大规模数据仓库系统,shark继承了hive的复杂代码,并依赖spark 的版本,维护成本高,2014年官方从shark转战Spark SQL.spark SQL底层使用的是RDD 效率非常高。 SparkSQL的优点如下: 1. sql查询与spark rdd无缝整合。 2. 可以使用java,scala,python,R语言等来实现。 3. 可以对接多种数据源:Hive Avro ORC JSON JDBC/ODBC 等,同时兼容Hive语法。 2.核心API SparkSQL的核心是DataFrame,在Spark 2.0以后,DataFrame和DataSet已经整合在一起。这里我们重点讲解 DataFrame: 1. DataFrame分为两部分:1.RDD基础分布式数据集。 2.Schema元信息(记录二维数据表中每一列的列名和类型) 2. 不同于RDD记录的一个个对象(spark不知道对象内部的信息),DataFrame却提供了每条数据的内部多列详细 信息。 3. DataFrame SQL的代码会经过Catalyst(Spark优化器)的优化,变成高效的处理代码。举个例子吧,比如使用 RDD读取某个文件,并取出第1条数据,此刻系统会先读取所有数据,再取第一条,消费了大部分没用的内存, 而SparkSQL经过优化后,会只将第一条数据加载到内存中。 3.利用spark-shell创建DataFrame
1. sc:SparkContext是所有Spark任务的入口,它包含了Spark程序的基本设置,如程序名字 内存大小 并行处理 粒度。 2. spark session:不仅有SparkContext的所有功能,还集成了DataFrame,Spark Streaming,Structed Streaming 提供的API,不用为不同功能分别定义Context。 要操作DataFrame,首先要知道如何创建,这介绍两种方式: 方式一:将RDD转换成DataFrame,这里case class就是定义DataFrame的schema
方式二:直接通过spark session读取【普通文本数据、JSON数据、Parquet数据 】
方式三:直接通过spark session读取 【Mysql数据】
4.利用spark-shell 操作DataFrame 上一节我们介绍了如何创建DataFrame,接着看看如何使用DataFrame操作数据,对于操作数据,系统提供了两种 方式: 操作方式一:DSL风格语法
操作方式二:SQL语法
下一节,我们将介绍如何使用Java代码来操作 DataFrame。 |
推荐了解热门学科
java培训 | Python人工智能 | Web前端培训 | PHP培训 |
区块链培训 | 影视制作培训 | C++培训 | 产品经理培训 |
UI设计培训 | 新媒体培训 | 软件测试培训 | Linux运维 |
大数据培训 | 智能机器人软件开发 |
传智播客是一家致力于培养高素质软件开发人才的科技公司,“黑马程序员”是传智播客旗下高端IT教育品牌。自“黑马程序员”成立以来,教学研发团队一直致力于打造精品课程资源,不断在产、学、研3个层面创新自己的执教理念与教学方针,并集中“黑马程序员”的优势力量,针对性地出版了计算机系列教材50多册,制作教学视频数+套,发表各类技术文章数百篇。
传智播客从未停止思考
传智播客副总裁毕向东在2019IT培训行业变革大会提到,“传智播客意识到企业的用人需求已经从初级程序员升级到中高级程序员,具备多领域、多行业项目经验的人才成为企业用人的首选。”
中级程序员和初级程序员的差别在哪里?
项目经验。毕向东表示,“中级程序员和初级程序员最大的差别在于中级程序员比初级程序员多了三四年的工作经验,从而多出了更多的项目经验。“为此,传智播客研究院引进曾在知名IT企业如阿里、IBM就职的高级技术专家,集中研发面向中高级程序员的课程,用以满足企业用人需求,尽快补全IT行业所需的人才缺口。
何为中高级程序员课程?
传智播客进行了定义。中高级程序员课程,是在当前主流的初级程序员课程的基础上,增加多领域多行业的含金量项目,从技术的广度和深度上进行拓展。“我们希望用5年的时间,打造上百个高含金量的项目,覆盖主流的32个行业。”传智播客课程研发总监于洋表示。
黑马程序员热门视频教程
Python入门教程完整版(懂中文就能学会) | 零起点打开Java世界的大门 |
C++| 匠心之作 从0到1入门学编程 | PHP|零基础入门开发者编程核心技术 |
Web前端入门教程_Web前端html+css+JavaScript | 软件测试入门到精通 |