Spark算子 - reduce
2024-10-12 03:56:36
释义
reduce
将partition内所有记录最终计算成1个记录,结果类型与reduce
时数据类型一致
方法签名如下:
def reduce(f: (T, T) => T): T = withScope {
...
}
- f: 每个partition内,每每两条记录进行归并计算。输入类型为U跟U,输出为U,即输入类型与输出类型一致
案例
计算数组总和
object TestReduce {
def main(args: Array[String]): Unit = {
val conf: SparkConf = new SparkConf().setAppName("TestReduce").setMaster("local[1]")
val sc: SparkContext = new SparkContext(conf)
val data = Array(1, 99, 2, 3)
val result: Int = sc.parallelize(data).reduce(_ + _)
println(result)
}
}
输出
105
解释
RDD内所有记录进行两两计算,最终生成1个结果
最新文章
- Linux:JDK配置
- 使用JS实现图片展示瀑布流效果
- C# WinForm 中 MessageBox的使用详解
- 基于OpenCv的人脸检测、识别系统学习制作笔记之三
- java多线程系类:基础篇:02常用的实现多线程的两种方式
- [Android Pro] Android 打包流程
- nrf51822-使用16位自定义UUID
- 关于IOS框架的解释
- 前端代码新写法——Zen Coding
- ASP.NET MVC4 &; Entity Framework 6.0 IIS 部署出错解决方案
- spring ioc 原理 spring aop原理
- Sass占位符选择器`%`
- 动态链接库(DLL)的使用
- 常用SNS开源系统比较
- [深入React] 3.JSX的神秘面纱
- Android 4.0 ProGuard 代码混淆 以及 proguard returned with error code 1.See console异常的解决方法
- GreenDao 3.2.0 的基本使用
- layUI框架中文件上传前后端交互及遇到的相关问题
- Linux基础学习:文件与目录管理
- 原生javascript制作时钟