//import org.apache.spark.api.java.function.FilterFunction;
//import org.apache.spark.sql.Dataset;
//import org.apache.spark.sql.SparkSession;
//
//public class SparkDemo {
//    public static void main(String[] args){
//        String file="src/main/resources/test.txt";
//        SparkSession spark=SparkSession
//                .builder()
//                .appName("Simple Example")
//                .getOrCreate();
//        Dataset<String> logData=spark
//                .read()
//                .textFile(file)
//                .cache();
//
//        long numA=logData.filter((FilterFunction<String>) s -> s.contains("a")).count();
//        long numB=logData.filter((FilterFunction<String>) s -> s.contains("b")).count();
//        long numC=logData.filter((FilterFunction<String>) s->s.contains("c")).count();
//
//        System.out.println("a有"+numA+"个");
//        System.out.println("b有"+numB+"个");
//        System.out.println(numC);
//
//        spark.stop();
//    }
//}
