from pyspark import SparkContext
# sc = SparkContext()
# print(sc.version)

sc=SparkContext()
print(sc.version)

arr=[1,2,3,4,5,3]
rdd1=sc.parallelize(arr)
print(rdd1.collect())
#取值
print(rdd1.max())
print(rdd1.min())
print(rdd1.top(2))
print(rdd1.first())
print(rdd1.take(2))

#统计
print(rdd1.count())
print(rdd1.countByValue())
print(max(5,1,8))
