欢迎投稿

今日深度:

浅析Hive/Spark SQL读文件时的输入任务划分,

浅析Hive/Spark SQL读文件时的输入任务划分,


作者:
王道远,花名健身,和通数据库EMR技术专家,Apache Spark活跃贡献者,主要关注大数据计算优化相关工作。


Hive以及Spark SQL等大数据计算引擎为我们操作存储在HDFS上结构化数据提供了易于上手的SQL接口,大大降低了ETL等操作的门槛,也因此在实际生产中有着广泛的应用。SQL是非过程化语言,我们写SQL的时候并不能控制具体的执行过程,它们依赖执行引擎决定。而Hive和Spark SQL作为Map-Reduce模型的分布式执行引擎,其执行过程首先就涉及到如何将输入数据切分成一个个任务,分配给不同的Map任务。在本文中,我们就来讲解Hive和Spark SQL是如何切分输入路径的。

Hive

Hive是起步较早的SQL on Hadoop项目,最早也是诞生于Hadoop中,所以输入划分这部分的代码与Hadoop相关度非常


www.htsjk.Com true http://www.htsjk.com/hive/42087.html NewsArticle 浅析Hive/Spark SQL读文件时的输入任务划分, 作者: 王道远,花名健身,和通数据库EMR技术专家,Apache Spark活跃贡献者,主要关注大数据计算优化相关工作。 Hive以及Spark SQL等大数据计算...
评论暂时关闭