首页 >

RDD-102 搜索结果

  • 蘭[RDD-102]あづみ 愛璃みい 森崎杏那[RGD-23

    七瀬ゆい 城内ヒカル 香月蘭[RDD-102]あづみ 愛璃みい 森崎杏那[RGD-231]作品及种子搜索下载
    2023-05-02 06:30:00

    七瀬ゆい 城内ヒカル 香月蘭[RDD-102]发行于2012-03-01时长121分钟出品商是プレステージ,RDD-102作品种子搜索下载,あづみ 愛璃みい 森崎杏那[RGD-231]发行于2010-06-18时长181分钟出品商是HRC,RGD-231作品种子搜索下载

  • RDD的特性_rdd特性

    RDD的特性_rdd特性
    2022-04-25 02:30:25

    scala>val gu=sc.textFile("hdfs://hadoop102:9000/RELEASE")gu:org.apache.spark.rdd.RDD[String]=hdfs://hadoop102:9000/RELEASE MapPartitionsRDD[4]at textFile at<console>:24 AI写代码py 1 2 可以通过关联源码来进查看scala中的源码内容,sc.parallelize中进行查具体的numslice信息

  • [大数据]Spark(2)RDD(1)_spark第二次作业

    [大数据]Spark(2)RDD(1)_spark第二次作业
    2021-07-01 12:58:26

    objectSpark01_CreateRDD_mem{defmain(args:Array[String]):Unit={//创建Spark配置文件对象valconf:SparkConf=newSparkConf().setAppName("Spark01_CreateRDD_mem").setMaster("local[*]")//创建SparkContextvalsc:SparkContext=newSparkContext(conf)//创建一个集合对象vallist:List[Int]=List(1,2,3,4)//...

  • RDD持久化-腾讯云开发者社区

    RDD持久化-腾讯云开发者社区
    2025-02-26 23:08:15

    setCheckpointDir("hdfs://hadoop102:9820/output/a") val rdd1=sc.parallelize(List(1,2,3),4) //进行一个map算子操作 val rdd2=rdd1.map(x=>{ println("*"*10) x*10 }) //添加 rdd2的缓存 rdd2.checkpoint() //进行一个reduce算子操作 val rdd3=rdd2.map(x=>x+10) val rdd4=rdd2....

  • RDD Programming Guide - Spark 4.0.0

    RDD Programming Guide - Spark 4.0.0
    2010-09-29 10:41:08

    Text file RDDs can be created usingSparkContext’stextFilemethod. This method takes a URI for the file (either a local path on the machine, or ahdfs://,s3a://, etc URI) and reads it as a collection of lines. Here is an example invocation: ...

  • spark分区和分片 spark的partition的合理分区_mob64ca1405664d的...

    spark分区和分片 spark的partition的合理分区_mob64ca1405664d的...
    2023-08-12 08:54:24

    在Reduce阶段,RDD的聚合会触发shuffle操作,聚合后的RDD的partition数目跟具体操作有关, 例如repartition操作会聚合成指定分区数,还有一些算子是可配置的。 RDD在计算的时候,每个分区都会起一个task,所以rdd的分区数目决定了总的task数目。 申请的计算节点(Executor)数目和每个计算节点核数,决定了你同一时刻可以并行执行的...

  • Stata:多断点 RDD、多分配变量 RDD 进展 -

    Stata:多断点 RDD、多分配变量 RDD 进展 -
    2020-09-25 03:55:00

    在五大期刊中出现的应用,对还未在五大上出现的多配置变量 RDD (RDD with assignment variables)、分位数 RDD 、拐点回归设计 (regression kink designs)、多断点RDD (RDD with multiple cutoffs)、远离断点处的处理效应的识别方法( methods for extrapolation away from the cutoff)、离散型配置变量 RDD 等新进展...

  • Spark RDD详解 -

    Spark RDD详解 -
    2019-11-20 16:00:00

    RDD(Resilient Distributed Datasets)弹性的分布式数据集,又称Spark core,它代表一个只读的、不可变、可分区,里面的元素可分布式并行计算的数据集。 RDD是一个很抽象的概念,不易于理解,但是要想学好Spark,必须要掌握RDD,熟悉它的编程模型,这是学习Spark其他组件的基础。笔者在这里从名字和几个重要的概念给大家一一解...