import org.apache.spark.{SparkContext,SparkConf}
val conf=new SparkConf()
val sc=new SparkContext(conf)
val rdd=sc.parallelize(Seq(("Alice",90),("Bob",80),("Charlie",70),("Alice",85),("Bob",95)))
val data=rdd.map(_._2).sum
println(data)

