//package pairs;
//
//import org.apache.hadoop.conf.Configuration;
//import org.apache.hadoop.fs.Path;
//import org.apache.hadoop.io.DoubleWritable;
//import org.apache.hadoop.mapreduce.Job;
//import org.apache.hadoop.mapreduce.lib.input.FileInputFormat;
//import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;
//
//import java.io.IOException;
//
//
//public class laughch {
//    public static void main(String[] args) throws IOException {
//        Configuration conf = new Configuration();
//
//        Job job = Job.getInstance(conf);
//
//        //使得hadoop可以根据类包，找到jar包在哪里
//        job.setJarByClass(laughch.class);
//
//        //指定Mapper的类
//        job.setMapperClass(mapper.class);
//        //指定reduce的类
//        job.setReducerClass(reducer.class);
//
//        //设置Mapper输出的类型
//        job.setMapOutputKeyClass(TextPair.class);
//        job.setMapOutputValueClass(DoubleWritable.class);
//
//        //设置最终输出的类型
//        job.setOutputKeyClass(TextPair.class);
//        job.setOutputValueClass(DoubleWritable.class);
//
//        //指定输入文件的位置，这里为了灵活，接收外部参数
//        FileInputFormat.setInputPaths(job, new Path(args[0]));
//        //指定输入文件的位置，这里接收启动参数
//        FileOutputFormat.setOutputPath(job, new Path(args[1]));
//
//        //将job中的参数，提交到yarn中运行
//        //job.submit();
//        try {
//            job.waitForCompletion(true);
//            //这里的为true,会打印执行结果
//        } catch (ClassNotFoundException | InterruptedException e) {
//            e.printStackTrace();
//        }
//    }
//}
