"""
【Spark】
"""
"""
【Spark】
    定义：
        Apache Spark 是用于大规模数据（large-scale data）处理的统一（unified）分析引擎。
        
    Spark作为全球顶尖的分布式计算框架，支持众多的编程语言进行开发。
    
    PySpark是由Spark开发的Python第三方库
    
"""