//package com.hadwinling.actualcombat.topk
//
//import org.apache.spark.{SparkConf, SparkContext}
//
//import org.apache.spark.mllib.clustering.KMeans
//
//object  ALSDemo{
//  def main(args: Array[String]): Unit = {
//    val conf = new SparkConf().setMaster("local").setAppName("ALS")
//    val sc = new SparkContext(conf)
//
//
//    // 加载和解析数据文件
//    val data = sc.textFile("data/mllib/kmeans_data.txt")
//    val parsedData = data.map( _.split(' ').map(_.toDouble))
//    // 设置迭代次数、类簇的个数
//    val numIterations = 20
//    val numClusters = 2
//
//    // 进行训练
//    val clusters = KMeans.train(parsedData, numClusters, numIterations)
//
//    // 统计聚类错误的样本比例
//    val WSSSE = clusters.computeCost(parsedData)
//    println("Within Set Sum of Squared Errors = " + WSSSE)
//  }
//
//
//
//}
