package basic;

import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.io.IntWritable;
import org.apache.hadoop.io.LongWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Job;
import org.apache.hadoop.mapreduce.Mapper;
import org.apache.hadoop.mapreduce.Reducer;
import org.apache.hadoop.mapreduce.lib.input.FileInputFormat;
import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;

public class WordcountDemo {

	/**
	 * 统计计数wordcount
	 * @param args
	 */
	public static void main(String[] args) throws Exception {
		//本例子中需要输入路径
		if (args.length!=2) {
			System.err.println("userwordcount<inpath>,<outpath>");
			System.exit(-1);
		}
		Job job = new Job(new Configuration(), "wordcont");
		job.setJarByClass(WordcountDemo.class);
		
		FileInputFormat.addInputPath(job, new Path(args[0]));//输入路径
		FileOutputFormat.setOutputPath(job,new Path(args[1]));//输出路径
		
		job.setMapperClass(MyMap.class);//运行的map类
		job.setReducerClass(myReduce.class);
		
		job.setMapOutputKeyClass(Text.class);
		job.setMapOutputValueClass(IntWritable.class);
		
		job.setOutputKeyClass(Text.class);
		job.setOutputValueClass(IntWritable.class);
		
		job.waitForCompletion(true);

	}
	//keyin：map输入数据的key类型：表示每行文本的偏移量：数据类型是LongWritable
	//VALUEIN：输入数据的key的值：表示每行文本的内容。数据类型是Text
	//KEYOUT输出数据的key类型:数据类型是Text
	//VALUEOUTmap输出数据的value类型：数据类型是Intwritable;
	/*
	 * 
	 * 
	 * */
	public static class MyMap extends Mapper<LongWritable,Text, Text, IntWritable>{
		protected void map(LongWritable key, Text value, org.apache.hadoop.mapreduce.Mapper<LongWritable,Text,Text,IntWritable>.Context context) throws java.io.IOException ,InterruptedException {
			/*
			 * key每行文本的偏移量
			 * value每行文本的neir
			 * context 上下文，可以通过wrote（）将map（）产生的中间结果写入到本地磁盘
			 * 默认的分割是\t...制表符
			 * alt+shift+l
			 * */
			String[] line = value.toString().split("\t");
			for(String word:line){
				context.write(new Text(word),new IntWritable(1));//需要将java数据类型转换为hadoop的类型
				//map输出的结果是以下形式：《hadoop，1》 《spark，1》
			}
			
		};
		/*
		 * map产生的中间结果需要shuffle阶段处理，
		 * 在shuffle阶段，操作《k2，v2》，会将相同key的value放到同一个values集合中，
		 *经过shuffle处理之后，数据变为《hive，『1，1，1』》，这个值交给reduce处理
		 * */
		
	}
	/*
	 * keyin:reduce输入数据的类型与map输出数据的key类型一致
	 * valuein：reduce输入数据的value类型和map输出数据的value类型相同
	 * 
	 * keyout：最终结果的key类型
	 * valueout：最终结果的value类型
	 * */
	public static class myReduce extends Reducer<Text, IntWritable, Text, IntWritable>{
		protected void reduce(Text k2, java.lang.Iterable<IntWritable> values, org.apache.hadoop.mapreduce.Reducer<Text,IntWritable,Text,IntWritable>.Context context) throws java.io.IOException ,InterruptedException {
			int sum=0;
			for (IntWritable count : values) {
				sum+=count.get();
				//通过get（）将hadoop中的整型转换为java中的整型
			}
			context.write(k2,new IntWritable(sum));
		};
	}

}
