package com.jjq;

import java.io.IOException;
import org.apache.commons.lang.StringUtils;
import org.apache.hadoop.io.LongWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Mapper;
/***
 *
 * @author Administrator
 * 1:FlowBean是我们自定义的一种数据类型，要在hadoop的各个节点之间进行传输，应该遵循hadoop的序列化
 *      所以就必须实现hadoop的相应的序列化接口
 * 2:Text一般认为它等价于java.lang.String的Writable。针对UTF-8序列。
 */
public class FlowSumMapper extends Mapper<LongWritable, Text, Text, FlowBean>{

    //拿到日志中的一行数据，切分各个字段，抽取出我们需要的字段：手机号，上行流量，下行流量
    //封装成key-value发送出去

    @Override
    protected void map(LongWritable key, Text value, Context context)
            throws IOException, InterruptedException {
        //拿到一行数据
        String line = value.toString();
        //切分成各个字段
        String[] fields = StringUtils.split(line, "      ");
        //拿到手机号的字段
        String phoneNumber = fields[0];
        //拿到上行流量字段
        long up_flow = Long.parseLong(fields[7]);
        //拿到下行流量字段
        long down_flow = Long.parseLong(fields[8]);

        //最后一步，封装数据为key-value进行输出
        context.write(new Text(phoneNumber), new FlowBean(phoneNumber, up_flow, down_flow));

    }

}