为了账号安全,请及时绑定邮箱和手机立即绑定

spark1.2里的一小段scala代码看不懂

spark1.2里的一小段scala代码看不懂

白猪掌柜的 2018-10-17 15:23:10
def map[U: ClassTag](f: T => U): RDD[U] = {val cleanF = sc.clean(f)new MapPartitionsRDD[U, T](this, (context, pid, iter) => iter.map(cleanF))}RDD.scala里的这个方法里的context, pid, iter不知道从哪来的啊??https://github.com/apache/spark/blob/master/core/src/main/scala/org/apache/spark/rdd/RDD.scala
查看完整描述

2 回答

?
江户川乱折腾

TA贡献1851条经验 获得超5个赞

这是参数列表……

最好能在IDE里打开源代码,点进declaration就知道了。看源代码用IDE方便呀~


查看完整回答
反对 回复 2018-10-27
?
慕勒3428872

TA贡献1848条经验 获得超5个赞

private[spark] class MapPartitionsRDD[U: ClassTag, T: ClassTag](

    prev: RDD[T],

    f: (TaskContext, Int, Iterator[T]) => Iterator[U],  // (TaskContext, partition index, iterator)

    preservesPartitioning: Boolean = false)

  extends RDD[U](prev) {


  override def compute(split: Partition, context: TaskContext): Iterator[U] =

    f(context, split.index, firstParent[T].iterator(split, context))

}

方法的参数列表,传入一个参数为(TaskContext, Int, Iterator[T])返回为Iterator[U]的函数作为MapPartitionsRDD的构造函数的参数f,方法compute会调用这个方法。

查看完整回答
反对 回复 2018-10-27
  • 2 回答
  • 0 关注
  • 933 浏览
慕课专栏
更多

添加回答

举报

0/150
提交
取消
意见反馈 帮助中心 APP下载
官方微信