package com.chb.weibo2;

import java.io.IOException;

import org.apache.hadoop.io.IntWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Mapper;
import org.apache.hadoop.mapreduce.lib.input.FileSplit;
/**
 *	统计idf
 *	输入数据：w+"_"+id
 */
public class SecondMapper extends Mapper<Text, Text, Text, IntWritable>{
	@Override
	protected void map(Text key, Text value, Context context)
			throws IOException, InterruptedException {
		
		FileSplit fileSplit = (FileSplit) context.getInputSplit();
		/**
		 * 第一个的MR的输出分四个reduce，生成四个文件，在自定义分区中，最后一个分区是计算微博总数
		 * 
		 */
		if (!fileSplit.getPath().getName().equals("part-0003")) {
			if (key.toString().split("_").length == 2 ) {
				String w = key.toString().split("_")[0];
				String id = key.toString().split("_")[1];
				context.write(new Text(w), new IntWritable(1));
			}
		}
	}
}
