// 创建一个包含100个元素的RDD，将其中大于50的元素乘以2，并筛选出其中大于100的元素。
import org.apache.spark.{SparkConf, SparkContext}

object RDDExample {
  def main(args: Array[String]): Unit = {
    // 创建SparkConf对象和SparkContext对象
    val conf = new SparkConf().setAppName("RDDExample").setMaster("local")
    val sc = new SparkContext(conf)
    
    // 创建包含100个元素的RDD
    val rdd = sc.parallelize(1 to 100)
    
    // 对RDD进行转换和操作
    val filtered = rdd.filter(_ > 50).map(_ * 2).filter(_ > 100)
    
    // 输出结果
    filtered.foreach(println)
    
    // 关闭SparkContext对象
    sc.stop()
  }
}
