package com.whcoding.base.project.web;


import java.util.List;
import java.util.Map;

import com.alibaba.excel.context.AnalysisContext;
import com.alibaba.excel.metadata.CellData;
import com.alibaba.excel.read.listener.ReadListener;
import com.alibaba.fastjson.JSON;

import com.google.common.collect.Lists;
import lombok.extern.slf4j.Slf4j;

/**
 * @program: spring-boot-learning
 * @description:模板的读取类
 * @author: whcoding
 * @create: 2022-05-27 15:50
 **/
// 有个很重要的点 DemoDataListener 不能被spring管理，要每次读取excel都要new,然后里面用到spring可以构造方法传进去
@Slf4j
public class UploadDataListener implements ReadListener<UploadData> {
	/**
	 * 每隔5条存储数据库，实际使用中可以100条，然后清理list ，方便内存回收
	 */
	private static final int BATCH_COUNT = 5;
	private List<UploadData> cachedDataList = Lists.newArrayListWithExpectedSize(BATCH_COUNT);


//	private List<UploadData> cachedDataList = ListUtils.newArrayListWithExpectedSize(BATCH_COUNT);
	/**
	 * 假设这个是一个DAO，当然有业务逻辑这个也可以是一个service。当然如果不用存储这个对象没用。
	 */
	private UploadDAO uploadDAO;

	public UploadDataListener() {
		// 这里是demo，所以随便new一个。实际使用如果到了spring,请使用下面的有参构造函数
		uploadDAO = new UploadDAO();
	}

	/**
	 * 如果使用了spring,请使用这个构造方法。每次创建Listener的时候需要把spring管理的类传进来
	 *
	 * @param uploadDAO
	 */
	public UploadDataListener(UploadDAO uploadDAO) {
		this.uploadDAO = uploadDAO;
	}

	@Override
	public void onException(Exception e, AnalysisContext analysisContext) {

	}

	@Override
	public void invokeHead(Map<Integer, CellData> map, AnalysisContext analysisContext) {

	}

	/**
	 * 这个每一条数据解析都会来调用
	 *
	 * @param data    one row value. Is is same as {@link AnalysisContext#readRowHolder()}
	 * @param context
	 */
	@Override
	public void invoke(UploadData data, AnalysisContext context) {
		log.info("解析到一条数据:{}", JSON.toJSONString(data));
		cachedDataList.add(data);
		// 达到BATCH_COUNT了，需要去存储一次数据库，防止数据几万条数据在内存，容易OOM
		if (cachedDataList.size() >= BATCH_COUNT) {
			saveData();
			// 存储完成清理 list
			cachedDataList = Lists.newArrayListWithExpectedSize(BATCH_COUNT);
		}
	}

	/**
	 * 所有数据解析完成了 都会来调用
	 *
	 * @param context
	 */
	@Override
	public void doAfterAllAnalysed(AnalysisContext context) {
		// 这里也要保存数据，确保最后遗留的数据也存储到数据库
		saveData();
		log.info("所有数据解析完成！");
	}

	@Override
	public boolean hasNext(AnalysisContext analysisContext) {
		return false;
	}

	/**
	 * 加上存储数据库
	 */
	private void saveData() {
		log.info("{}条数据，开始存储数据库！", cachedDataList.size());
		uploadDAO.save(cachedDataList);
		log.info("存储数据库成功！");
	}
}