//package com.electron.power.reduce;
//
//
//import org.apache.flink.api.common.functions.FlatMapFunction;
//import org.apache.flink.api.java.DataSet;
//import org.apache.flink.api.java.ExecutionEnvironment;
//import org.apache.flink.api.java.tuple.Tuple2;
//import org.apache.flink.util.Collector;
//
//public class WordCountSample {
//	public static void main(String[] args) {
//		//获取环境
//		ExecutionEnvironment env = ExecutionEnvironment.getExecutionEnvironment();
//		//读取本地文件-放入到数据集合中
//		DataSet<String> text = env.readTextFile("/path/to/file");
//
//		DataSet<Tuple2<String, Integer>> counts =
//		        text.flatMap(new Tokenizer())
//		        .groupBy(0)
//		        .sum(1);
//
//		counts.writeAsCsv("/mnt/flink/output.csv", "\n", " ");
//
//	}
//	
//
//	public static class Tokenizer implements FlatMapFunction<String, Tuple2<String, Integer>> {
//	    @Override
//	    public void flatMap(String value, Collector<Tuple2<String, Integer>> out) {
//	        //value是文件中一行一行的数据,将每行数据进行切割
//	        String[] tokens = value.toLowerCase().split("\\W+");
//	        //token是分割出来的单词
//	        for (String token : tokens) {
//	        	//如果切割出来的的单词
//	            if (token.length() > 0) {
//	            	//写入集合进行统计
//	                out.collect(new Tuple2<String, Integer>(token, 1));
//	            }   
//	        }
//	    }
//	}
//}
