Spark避坑系列二(Spark Core-RDD编程)

发布时间:2024年01月09日

大家想了解更多大数据相关内容请移驾我的课堂:
大数据相关课程

剖析及实践企业级大数据
数据架构规划设计
大厂架构师知识梳理:剖析及实践数据建模


PySpark避坑系列第二篇,该篇章主要介绍spark的编程核心RDD,RDD的概念,基础操作

一、什么是RDD

1.1 概念

RDD(Resilient Distributed Dataset)叫做弹性分布式数据集,是Spark中最基本的数据抽象,代表一个不可变、可分区、里面的元素可并行计算的集合。

所有的运算以及操作都建立在 RDD 数据结构的基础之上。

可以认为RDD是分布式的列表List或数组Array,抽象的数据结构

1.2 为什么需要RDD

分布式计算需要:

? 分区控制
? Shuffle控制
? 数据存储\序列化\发送
? 数据计算API
? 等一系列功能

这些功能, 不能简单的通过Python内置的本地集合对象(如

文章来源:https://blog.csdn.net/gyshun/article/details/135470876
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。