Spark cogroup函数

Spark cogroup函数

在Spark中,cogroup函数用于不同的数据集,比如,(K, V)和(K, W),并返回一个(K, (Iterable, Iterable))的数据集。这个操作也被称为 groupWith

cogroup函数示例

在这个示例中,我们执行 groupWith 操作。

  • 要以Scala模式打开Spark,请执行以下命令。
$ spark-shell

Spark cogroup函数

  • 使用并行化集合创建RDD。
scala> val data1 = sc.parallelize(Seq(("A",1),("B",2),("C",3)))

现在,我们可以使用以下命令来阅读生成的结果。

scala> data1.collect

Spark cogroup函数

  • 使用并行集合创建另一个RDD。
scala> val data2 = sc.parallelize(Seq(("B",4),("E",5)))

现在,我们可以使用以下命令阅读生成的结果。

scala> data2.collect

Spark cogroup函数

  • cogroup()函数应用于值进行分组。
scala> val cogroupfunc = data1.cogroup(data2)
  • 现在,我们可以使用以下命令来阅读生成的结果。
scala> cogroupfunc.collect

Spark cogroup函数

这里,我们获得了所需的输出。

Camera课程

Python教程

Java教程

Web教程

数据库教程

图形图像教程

办公软件教程

Linux教程

计算机教程

大数据教程

开发工具教程