       spark

RDD是由一系列的partion组成的
函数是作用在每一个partiontion上的
RDD之间有一系列的依赖关系
分区器是作用在（K，V）格式的RDD上
RDD提供一系列最佳的计算位置

cache和persist都是懒执行，必须有一个action类算子触发执行
cache和persist算子的返回值可以赋值给一个变量，在job中直接使用
这个变量就是使用持久化的数据了。持久化的单位是partition.
cache和persist算子不能立即跟action算子

转换算子是对RDD进行转换

sortByKey
排序，sortBy指定key再去排序
默认升序，false降序

sample
抽样：在后期spark优化中，定位数据切斜可用到

持久化算子cache,对rdd进行持久化到内存的操作（中间结果的持久化），能够提升性能


