import org.apache.spark.SparkConf
import org.apache.spark.SparkContext

object FilterAndTransformRDDExample {

  def main(args: Array[String]): Unit = {
    // 创建Spark配置对象
    val conf = new SparkConf().setAppName("FilterAndTransformRDD").setMaster("local[*]")
    val sc = new SparkContext(conf)

    // 创建包含100个随机整数的RDD
    val initialRdd = sc.parallelize((1 to 100).map(_ => scala.util.Random.nextInt(100)))

    // 对大于50的元素乘以2，然后筛选出大于100的元素
    val transformedAndFilteredRdd = initialRdd.map(x => if (x > 50) x * 2 else x)
                                            .filter(_ > 100)

    // 打印筛选出的元素
    transformedAndFilteredRdd.foreach(println)

    // 停止SparkContext
    sc.stop()
  }
}