<html>
 <head>
  <meta charset="UTF-8">
 </head>
 <body>
  <h1 data-lake-id="VhcSr" id="VhcSr"><span data-lake-id="u7e962efb" id="u7e962efb">典型回答</span></h1>
  <p data-lake-id="ufc626dcf" id="ufc626dcf"><br></p>
  <p data-lake-id="u829b3620" id="u829b3620"><span data-lake-id="uaeec564a" id="uaeec564a">这个场景题考察的方面其实挺多的，还是那句话，我们要学会拆解，我们先来看一下，百万级数据从Excel读取，并插入到数据库，可能会遇到哪些问题：</span></p>
  <p data-lake-id="ue9a2a303" id="ue9a2a303"><span data-lake-id="ua80a2298" id="ua80a2298">​</span><br></p>
  <p data-lake-id="ud0e86a7e" id="ud0e86a7e"><span data-lake-id="ud9ff7589" id="ud9ff7589">1</span><strong><span data-lake-id="u68024e7f" id="u68024e7f">、内存溢出问题</span></strong></p>
  <ul list="u16b84302">
   <li fid="ub7a126d6" data-lake-id="u53baa42b" id="u53baa42b"><span data-lake-id="u1510fa5a" id="u1510fa5a">百万级数据量的Excel文件会非常大，都加载到内存中可能会导致内存溢出。</span></li>
  </ul>
  <p data-lake-id="u388cb418" id="u388cb418"><strong><span data-lake-id="u1bbcdf33" id="u1bbcdf33">2、性能问题</span></strong></p>
  <ul list="u56a772bf">
   <li fid="u80131be2" data-lake-id="u137fefe9" id="u137fefe9"><span data-lake-id="uf2ebb7b8" id="uf2ebb7b8">百万级数据从Excel读取并插入到数据，可能会很慢，需要考虑性能问题。</span></li>
  </ul>
  <p data-lake-id="u76f6e538" id="u76f6e538"><strong><span data-lake-id="u7cadd179" id="u7cadd179">3、错误处理</span></strong></p>
  <ul list="u8b4f41d5">
   <li fid="u4afad8d7" data-lake-id="ub00ea600" id="ub00ea600"><span data-lake-id="u70dc6e26" id="u70dc6e26">在文件的读取及导入过程中，可能会遇到各种各样的问题，我们需要妥善的处理好这些问题</span></li>
  </ul>
  <p data-lake-id="u7c5400a9" id="u7c5400a9"><span data-lake-id="uabad1d9f" id="uabad1d9f">​</span><br></p>
  <h3 data-lake-id="Z6Dhi" id="Z6Dhi"><span data-lake-id="u3d194cb4" id="u3d194cb4">内存溢出问题</span></h3>
  <p data-lake-id="u86bbd86b" id="u86bbd86b"><br></p>
  <p data-lake-id="u5fe7862e" id="u5fe7862e"><span data-lake-id="u2238666b" id="u2238666b">百万级数据量，一次性都读取到内存中，肯定是不现实的，那么好的办法就是</span><strong><span data-lake-id="u9f7446db" id="u9f7446db">基于流式读取的方式进行分批处理</span></strong><span data-lake-id="u62ae66ec" id="u62ae66ec">。</span></p>
  <p data-lake-id="uc57e3748" id="uc57e3748"><span data-lake-id="u204bdfcd" id="u204bdfcd">​</span><br></p>
  <p data-lake-id="u3438ecad" id="u3438ecad"><span data-lake-id="u26538c36" id="u26538c36">在技术选型上，我们选择使用</span><strong><span data-lake-id="u01798021" id="u01798021">EasyExcel</span></strong><span data-lake-id="u290f9e24" id="u290f9e24">，他特别针对大数据量和复杂Excel文件的处理进行了优化。在解析Excel时EasyExcel不会将Excel一次性全部加载到内存中，而是从磁盘上一行行读取数据，逐个解析。</span></p>
  <p data-lake-id="ue9e338e1" id="ue9e338e1"><span data-lake-id="ued0e6a08" id="ued0e6a08">​</span><br></p>
  <h3 data-lake-id="aDYkW" id="aDYkW"><span data-lake-id="u59627e94" id="u59627e94">性能问题</span></h3>
  <p data-lake-id="u1f46691a" id="u1f46691a"><br></p>
  <p data-lake-id="u6aad74f8" id="u6aad74f8"><span data-lake-id="ue3ca48f2" id="ue3ca48f2">百万级数据的处理，如果用单线程的话肯定是很慢的，想要提升性能，那么就需要使用</span><strong><span data-lake-id="ue5869727" id="ue5869727">多线程</span></strong><span data-lake-id="ufcdd8294" id="ufcdd8294">。</span></p>
  <p data-lake-id="u306ca706" id="u306ca706"><span data-lake-id="u5889f363" id="u5889f363">​</span><br></p>
  <p data-lake-id="ub777d893" id="ub777d893"><span data-lake-id="u8a94626f" id="u8a94626f">多线程的使用上涉及到两个场景，一个是用多线程进行文件的读取，另一个是用多线程实现数据的插入。这里就涉及到一个生产者-消费者的模式了，多个线程读取，然后多个线程插入，这样可以最大限度的提升整体的性能。</span></p>
  <p data-lake-id="ubb200dcb" id="ubb200dcb"><span data-lake-id="u6f0aaeb5" id="u6f0aaeb5">​</span><br></p>
  <p data-lake-id="u9f3240e2" id="u9f3240e2"><span data-lake-id="u819e9829" id="u819e9829">而数据的插入，我们除了借助多线程之外，还可以同时使用</span><strong><span data-lake-id="ufaa4901e" id="ufaa4901e">数据库的批量插入的功能</span></strong><span data-lake-id="ud8272aba" id="ud8272aba">，这样就能更加的提升插入速度。</span></p>
  <p data-lake-id="u2b91476d" id="u2b91476d"><span data-lake-id="ua8897b5f" id="ua8897b5f">​</span><br></p>
  <h3 data-lake-id="m1jeT" id="m1jeT"><span data-lake-id="uf33f028a" id="uf33f028a">错误处理</span></h3>
  <p data-lake-id="ua748aaba" id="ua748aaba"><br></p>
  <p data-lake-id="u4e3a2f38" id="u4e3a2f38"><span data-lake-id="u969acda4" id="u969acda4">在文件的读取和数据库写入过程中，会需要解决各种各样的问题，比如数据格式错误、数据不一致、有重复数据等。</span></p>
  <p data-lake-id="u280483a2" id="u280483a2"><span data-lake-id="u35c74d08" id="u35c74d08">​</span><br></p>
  <p data-lake-id="u3cd9d66d" id="u3cd9d66d"><span data-lake-id="u747bb58f" id="u747bb58f">所以我们需要分两步来，第一步就是先进行数据的检查，在开始插入之间就把数据的格式等问题提前检查好，然后在插入过程中，对异常进行处理。</span></p>
  <p data-lake-id="u76a7c048" id="u76a7c048"><span data-lake-id="u89e3c763" id="u89e3c763">​</span><br></p>
  <p data-lake-id="u813ace4f" id="u813ace4f"><span data-lake-id="u0931ea0a" id="u0931ea0a">处理方式有很多种，可以进行事务回滚、可以进行日志记录。这个根据实际情况，一般来说不建议做回滚，直接做自动重试，重试几次之后还是不行的话，再记录日志然后后续在重新插入即可。</span></p>
  <p data-lake-id="ud880f9e0" id="ud880f9e0"><span data-lake-id="ub8d7da4a" id="ub8d7da4a">​</span><br></p>
  <p data-lake-id="u94c2f74f" id="u94c2f74f"><span data-lake-id="ud1ab2a77" id="ud1ab2a77">并且在这个过程中，需要考虑一下数据重复的问题，需要在excel中某几个字段设置成数据库唯一性约束，然后在遇到数据冲突的时候，进行处理，处理方式可以是覆盖、跳过以及报错。这个根据实际业务情况来，一般来说跳过+打印日志是相对合理的。</span></p>
  <p data-lake-id="u95e903e5" id="u95e903e5"><span data-lake-id="u50058e10" id="u50058e10">​</span><br></p>
  <p data-lake-id="u40843b8e" id="u40843b8e"><span data-lake-id="uebd629bc" id="uebd629bc">​</span><br></p>
  <p data-lake-id="ua042a3ec" id="ua042a3ec"><span data-lake-id="udb42f1e5" id="udb42f1e5">所以，</span><span data-lake-id="u3fcb5eab" id="u3fcb5eab" style="color: rgb(255, 111, 4),rgb(243, 48, 171)">整体方案</span><span data-lake-id="ufaebb209" id="ufaebb209">就是：</span></p>
  <p data-lake-id="uc67cf886" id="uc67cf886"><span data-lake-id="u1123c768" id="u1123c768">​</span><br></p>
  <p data-lake-id="u680f0668" id="u680f0668"><strong><u><span data-lake-id="ub35f9f6d" id="ub35f9f6d">借助EasyExcel来实现Excel的读取，因为他并不会一次性把整个Excel都加载到内存中，而是逐行读取的。为了提升并发性能，我们再进一步将百万级数据分散到不同的sheet中，然后借助线程池，多线程同时读取不同的sheet，在读取过程中，借助EasyExcel的ReadListener做数据处理。</span></u></strong></p>
  <p data-lake-id="u3a99c739" id="u3a99c739"><strong><u><span data-lake-id="u5c88967d" id="u5c88967d">​</span></u></strong><br></p>
  <p data-lake-id="u8ee0a70a" id="u8ee0a70a"><strong><u><span data-lake-id="u4e56c416" id="u4e56c416">在处理过程中，我们并不会每一条数据都操作数据库，这样对数据库来说压力太大了，我们会设定一个批次，比如1000条，我们会把从Excel中读取到的数据暂存在内存中，这里可以使用List实现，当读取了1000条之后，就执行一次数据的批量插入，批量插入可以借助mybatis就能简单的实现了。</span></u></strong></p>
  <p data-lake-id="u566e6566" id="u566e6566"><strong><u><span data-lake-id="ua16a842a" id="ua16a842a">​</span></u></strong><br></p>
  <p data-lake-id="u7484fa1d" id="u7484fa1d"><strong><u><span data-lake-id="u05b25f65" id="u05b25f65">而这个过程中，还需要考虑一些并发的问题，所以我们在处理过程中会使用线程安全的队列来保存暂存在内存中的数据，如ConcurrentLinkedQueue</span></u></strong></p>
  <p data-lake-id="u3d7ed297" id="u3d7ed297"><strong><u><span data-lake-id="u8c4a9f71" id="u8c4a9f71">​</span></u></strong><br></p>
  <p data-lake-id="uc8cac8be" id="uc8cac8be"><strong><u><span data-lake-id="ud13ec162" id="ud13ec162">经过验证，如此实现之后，读取一个100万数据的Excel并插入数据，耗时在100秒左右，不超过2分钟。</span></u></strong></p>
  <p data-lake-id="u818cdd0f" id="u818cdd0f"><span data-lake-id="ud67efd66" id="ud67efd66">​</span><br></p>
  <h3 data-lake-id="oiW1h" id="oiW1h"><span data-lake-id="u89adddbc" id="u89adddbc">具体实现</span></h3>
  <p data-lake-id="uf64d0ff6" id="uf64d0ff6"><br></p>
  <p data-lake-id="u649a02b9" id="u649a02b9"><span data-lake-id="ue8bfaca7" id="ue8bfaca7">为了提升并发处理的能力，我们把百万级数据放到同一个excel的不同的sheet中，然后通过使用EasyExcel并发的读取这些sheet。</span></p>
  <p data-lake-id="uc68adb62" id="uc68adb62"><span data-lake-id="uc460150d" id="uc460150d">​</span><br></p>
  <p data-lake-id="u9232e6c8" id="u9232e6c8"><span data-lake-id="u33df9d4d" id="u33df9d4d">EasyExcel提供了ReadListener接口，允许在读取每一批数据后进行自定义处理。我们可以基于他的这个功能来实现文件的分批读取。</span></p>
  <p data-lake-id="u0df3dce7" id="u0df3dce7"><span data-lake-id="udeb3a155" id="udeb3a155">​</span><br></p>
  <p data-lake-id="uc1d58aa0" id="uc1d58aa0"><span data-lake-id="u07f1180e" id="u07f1180e">先增加依赖：</span></p>
  <p data-lake-id="u688fb099" id="u688fb099"><span data-lake-id="ud9e2ee75" id="ud9e2ee75">​</span><br></p>
  <pre lang="java"><code>
&lt;dependencies&gt;
    &lt;!-- EasyExcel --&gt;
    &lt;dependency&gt;
        &lt;groupId&gt;com.alibaba&lt;/groupId&gt;
        &lt;artifactId&gt;easyexcel&lt;/artifactId&gt;
        &lt;version&gt;最新的版本号&lt;/version&gt;
    &lt;/dependency&gt;

    &lt;!-- 数据库连接和线程池 --&gt;
    &lt;dependency&gt;
        &lt;groupId&gt;org.springframework.boot&lt;/groupId&gt;
        &lt;artifactId&gt;spring-boot-starter-data-jpa&lt;/artifactId&gt;
    &lt;/dependency&gt;
&lt;/dependencies&gt;

</code></pre>
  <p data-lake-id="uccd6e4b4" id="uccd6e4b4"><span data-lake-id="u130b1695" id="u130b1695">​</span><br></p>
  <p data-lake-id="u9ad54b54" id="u9ad54b54"><span data-lake-id="u8bd9dd3c" id="u8bd9dd3c">然后实现并发读取多个sheet的代码：</span></p>
  <p data-lake-id="uc2f08a4b" id="uc2f08a4b"><span data-lake-id="u2dd0302b" id="u2dd0302b">​</span><br></p>
  <pre lang="java"><code>
@Service
public class ExcelImporterService {

    @Autowired
    private MyDataService myDataService;
    
    public void doImport() {
        // Excel文件的路径
        String filePath = "users/hollis/workspace/excel/test.xlsx";

        // 需要读取的sheet数量
        int numberOfSheets = 20;

        // 创建一个固定大小的线程池，大小与sheet数量相同
        ExecutorService executor = Executors.newFixedThreadPool(numberOfSheets);

        // 遍历所有sheets
        for (int sheetNo = 0; sheetNo &lt; numberOfSheets; sheetNo++) {
            // 在Java lambda表达式中使用的变量需要是final
            int finalSheetNo = sheetNo;

            // 向线程池提交一个任务
            executor.submit(() -&gt; {
                // 使用EasyExcel读取指定的sheet
                EasyExcel.read(filePath, MyDataModel.class, new MyDataModelListener(myDataService))
                         .sheet(finalSheetNo) // 指定sheet号
                         .doRead(); // 开始读取操作
            });
        }

        // 启动线程池的关闭序列
		executor.shutdown();

        // 等待所有任务完成，或者在等待超时前被中断
        try {
            executor.awaitTermination(Long.MAX_VALUE, TimeUnit.NANOSECONDS);
        } catch (InterruptedException e) {
            // 如果等待过程中线程被中断，打印异常信息
            e.printStackTrace();
        }
    }
}

</code></pre>
  <p data-lake-id="ueb484847" id="ueb484847"><span data-lake-id="u6e8d66cb" id="u6e8d66cb">​</span><br></p>
  <p data-lake-id="ued8eedf7" id="ued8eedf7"><span data-lake-id="u0d3ff74c" id="u0d3ff74c">这段代码通过创建一个固定大小的线程池来并发读取一个包含多个sheets的Excel文件。每个sheet的读取作为一个单独的任务提交给线程池。</span></p>
  <p data-lake-id="u113a0e45" id="u113a0e45"><span data-lake-id="ufb6de760" id="ufb6de760">​</span><br></p>
  <p data-lake-id="ud5b2d644" id="ud5b2d644"><span data-lake-id="u70fdc20a" id="u70fdc20a">我们在代码中用了一个MyDataModelListener，这个类是ReadListener的一个实现类。当EasyExcel读取每一行数据时，它会自动调用我们传入的这个ReadListener实例的invoke方法。在这个方法中，我们就可以定义如何处理这些数据。</span></p>
  <p data-lake-id="u682eb701" id="u682eb701"><span data-lake-id="u7da0b535" id="u7da0b535">​</span><br></p>
  <blockquote data-lake-id="u0fcff2ce" id="u0fcff2ce">
   <p data-lake-id="uec5554a8" id="uec5554a8"><span data-lake-id="u730d656c" id="u730d656c">MyDataModelListener还包含doAfterAllAnalysed方法，这个方法在所有数据都读取完毕后被调用。这里可以执行一些清理工作，或处理剩余的数据。</span></p>
  </blockquote>
  <p data-lake-id="udb813489" id="udb813489"><span data-lake-id="u8768d1cf" id="u8768d1cf">​</span><br></p>
  <p data-lake-id="u617cea3a" id="u617cea3a"><span data-lake-id="u3d184d36" id="u3d184d36">接下来，我们来实现这个我们的ReadListener：</span></p>
  <p data-lake-id="u2c317ef8" id="u2c317ef8"><span data-lake-id="ua8fdd5f0" id="ua8fdd5f0">​</span><br></p>
  <pre lang="java"><code>
import com.alibaba.excel.context.AnalysisContext;
import com.alibaba.excel.read.listener.ReadListener;
import org.springframework.transaction.annotation.Transactional;
import java.util.ArrayList;
import java.util.List;

// 自定义的ReadListener，用于处理从Excel读取的数据
public class MyDataModelListener implements ReadListener&lt;MyDataModel&gt; {
    // 设置批量处理的数据大小
    private static final int BATCH_SIZE = 1000;
    // 用于暂存读取的数据，直到达到批量大小
    private List&lt;MyDataModel&gt; batch = new ArrayList&lt;&gt;();

    
    private MyDataService myDataService;

    // 构造函数，注入MyBatis的Mapper
    public MyDataModelListener(MyDataService myDataService) {
        this.myDataService = myDataService;
    }

    // 每读取一行数据都会调用此方法
    @Override
    public void invoke(MyDataModel data, AnalysisContext context) {
        //检查数据的合法性及有效性
        if (validateData(data)) {
            //有效数据添加到list中
            batch.add(data);
        } else {
            // 处理无效数据，例如记录日志或跳过
        }
        
        // 当达到批量大小时，处理这批数据
        if (batch.size() &gt;= BATCH_SIZE) {
            processBatch();
        }
    }

    
    private boolean validateData(MyDataModel data) {
        // 调用mapper方法来检查数据库中是否已存在该数据
        int count = myDataService.countByColumn1(data.getColumn1());
        // 如果count为0，表示数据不存在，返回true；否则返回false
        if(count == 0){
        	return true;
        }
        
        // 在这里实现数据验证逻辑
        return false;
    }


    // 所有数据读取完成后调用此方法
    @Override
    public void doAfterAllAnalysed(AnalysisContext context) {
        // 如果还有未处理的数据，进行处理
        if (!batch.isEmpty()) {
            processBatch();
        }
    }

    // 处理一批数据的方法
    private void processBatch() {
        int retryCount = 0;
        // 重试逻辑
        while (retryCount &lt; 3) {
            try {
                // 尝试批量插入
                myDataService.batchInsert(batch);
                // 清空批量数据，以便下一次批量处理
                batch.clear();
                break;
            } catch (Exception e) {
                // 重试计数增加
                retryCount++;
                // 如果重试3次都失败，记录错误日志
                if (retryCount &gt;= 3) {
                    logError(e, batch);
                }
            }
        }
    }

   

    // 记录错误日志的方法
    private void logError(Exception e, List&lt;MyDataModel&gt; failedBatch) {
        // 在这里实现错误日志记录逻辑
        // 可以记录异常信息和导致失败的数据
    }
}

@Service
public class MyDataService{
    // MyBatis的Mapper，用于数据库操作
    @Autowired
    private MyDataMapper myDataMapper;
    
 	// 使用Spring的事务管理进行批量插入
    @Transactional(rollbackFor = Exception.class)
    public void batchInsert(List&lt;MyDataModel&gt; batch) {
        // 使用MyBatis Mapper进行批量插入
        myDataMapper.batchInsert(batch);
    }

    public int countByColumn1(String column1){
        return myDataMapper.countByColumn1(column1);
    }
    
}
</code></pre>
  <p data-lake-id="u456b368f" id="u456b368f"><br></p>
  <p data-lake-id="uc0a54975" id="uc0a54975"><span data-lake-id="u8f1e87be" id="u8f1e87be">通过自定义这个MyDataModelListener，我们就可以在读取Excel文件的过程中处理数据。</span></p>
  <p data-lake-id="u0a04cc3a" id="u0a04cc3a"><span data-lake-id="u65fcd646" id="u65fcd646">​</span><br></p>
  <p data-lake-id="u6e463ba5" id="u6e463ba5"><span data-lake-id="u42d71b01" id="u42d71b01">每读取到一条数据之后会把他们放入一个List，当List中积累到1000条之后，进行一次数据库的批量插入，插入时如果失败了则重试，最后还是失败就打印日志。</span></p>
  <p data-lake-id="u802e32c7" id="u802e32c7"><br></p>
  <p data-lake-id="u6b6e70b1" id="u6b6e70b1"><span data-lake-id="u659754fa" id="u659754fa">这里批量插入，用到了MyBatis的批量插入，代码实现如下：</span></p>
  <p data-lake-id="u448eca34" id="u448eca34"><span data-lake-id="uf60a9076" id="uf60a9076">​</span><br></p>
  <pre lang="java"><code>
import org.apache.ibatis.annotations.Mapper;
import java.util.List;

@Mapper
public interface MyDataMapper {
    void batchInsert(List&lt;MyDataModel&gt; dataList);

    int countByColumn1(String column1);
}
</code></pre>
  <p data-lake-id="u286e5d2c" id="u286e5d2c"><br></p>
  <p data-lake-id="ucf23c810" id="ucf23c810"><span data-lake-id="uc4459f0f" id="uc4459f0f">mapper.xml文件：</span></p>
  <pre lang="java"><code>
&lt;insert id="batchInsert" parameterType="list"&gt;
    INSERT INTO hollis_test_table_name (column1, column2, ...)
    VALUES 
    &lt;foreach collection="list" item="item" index="index" separator=","&gt;
        (#{item.column1}, #{item.column2}, ...)
    &lt;/foreach&gt;
&lt;/insert&gt;

&lt;select id="countByColumn1" resultType="int"&gt;
    SELECT COUNT(*) FROM your_table WHERE column1 = #{column1}
&lt;/select&gt;

</code></pre>
  <p data-lake-id="uf2597000" id="uf2597000"><br></p>
  <p data-lake-id="u0f171e0b" id="u0f171e0b"><br></p>
 </body>
</html>