package com.example.interview.bean.tree.bst;

import cn.hutool.core.util.RandomUtil;
import com.alibaba.fastjson.JSON;
import lombok.Data;

/**
 * @author ：superdyf
 * @date ：Created in 2021/10/14 18:40
 * @description：
 * @modified By：
 */
@Data
public class MutiTree<E> {
    private E e;
    private int branch=0;
    private transient int num=50;
    private MutiTree[]nodes=new MutiTree[num];

    public MutiTree(E e) {
        this.e = e;
    }
    public MutiTree() {
    }
    public MutiTree<E> add(MutiTree<E> root, MutiTree<E> e){
        int c= Math.toIntExact(Integer.toUnsignedLong(e.hashCode()) % num);
        if(root==null){
            e.setBranch(c);
            return e;
        }
        root.getNodes()[c]=add((MutiTree<E>) root.getNodes()[c],e);
        return root;
    }

    public static void main(String[] args) {
        MutiTree<String> root=new MutiTree<>("我");
        String s= "ArrayList 踩坑\n" +
                "List<String> temp = new ArrayList() ;\n" +
                "\n" +
                "//获取一批数据\n" +
                "\n" +
                "List<String> all = getData();\n" +
                "\n" +
                "for(String str : all) {\n" +
                "\n" +
                "temp.add(str);\n" +
                "\n" +
                "}\n" +
                "\n" +
                "首先大家看看这段代码有什么问题嘛？\n" +
                "\n" +
                "其实在大部分情况下这都是没啥问题，无非就是循环的往 ArrayList 中写入数据而已。\n" +
                "\n" +
                "但在特殊情况下，比如这里的 getData() 返回数据非常巨大时后续 temp.add(str) 就会有问题了。\n" +
                "\n" +
                "比如我们在 review 代码时发现这里返回的数据有时会高达 2000W，这时 ArrayList 写入的问题就凸显出来了。\n" +
                "\n" +
                "填坑指南\n" +
                "大家都知道 ArrayList 是由数组实现，而数据的长度有限；需要在合适的时机对数组扩容。\n" +
                "\n" +
                "这里以插入到尾部为例 add(E e)。\n" +
                "\n" +
                " \n" +
                "\n" +
                "ArrayList<String> temp = new ArrayList<>(2) ;temp.add(\"1\");temp.add(\"2\");temp.add(\"3\");\n" +
                "当我们初始化一个长度为 2 的 ArrayList ，并往里边写入三条数据时 ArrayList 就得扩容了，也就是将之前的数据复制一份到新的数组长度为 3 的数组中。\n" +
                "\n" +
                " \n" +
                "\n" +
                "之所以是 3 ，是因为新的长度=原有长度 * 1.5\n" +
                "\n" +
                "通过源码我们可以得知 ArrayList 的默认长度为 10.\n" +
                "\n" +
                " \n" +
                "\n" +
                "但其实并不是在初始化的时候就创建了 DEFAULT_CAPACITY=10 的数组。\n" +
                "\n" +
                " \n" +
                "\n" +
                "而是在往里边 add 第一个数据的时候会扩容到 10.\n" +
                "\n" +
                "既然知道了默认的长度为 10 ，那说明后续一旦写入到第九个元素的时候就会扩容为 10*1.5=15。这一步为数组复制，也就是要重新开辟一块新的内存空间存放这 15 个数组。\n" +
                "\n" +
                "一旦我们频繁且数量巨大的进行写入时就会导致许多的数组复制，这个效率是极低的。\n" +
                "\n" +
                "但如果我们提前预知了可能会写入多少条数据时就可以提前避免这个问题。\n" +
                "\n" +
                "比如我们往里边写入 1000W 条数据，在初始化的时候就给定数组长度与用默认 10 的长度之间性能是差距巨大的。\n" +
                "\n" +
                "我用 JMH 基准测试验证如下：\n" +
                "\n" +
                "@Warmup(iterations = 5, time = 1, timeUnit = TimeUnit.SECONDS)\n" +
                "\n" +
                "@Measurement(iterations = 5, time = 1, timeUnit = TimeUnit.SECONDS)\n" +
                "\n" +
                "public class CollectionsTest {\n" +
                "\n" +
                "    private static final int TEN_MILLION = 10000000;\n" +
                "\n" +
                " \n" +
                "\n" +
                "    @Benchmark\n" +
                "\n" +
                "    @BenchmarkMode(Mode.AverageTime)\n" +
                "\n" +
                "    @OutputTimeUnit(TimeUnit.MICROSECONDS)\n" +
                "\n" +
                "    public void arrayList() {\n" +
                "\n" +
                "        List<String> array = new ArrayList<>();\n" +
                "\n" +
                "        for (int i = 0; i < TEN_MILLION; i++) {\n" +
                "\n" +
                "            array.add(\"123\");\n" +
                "\n" +
                "        }\n" +
                "\n" +
                "    }\n" +
                "\n" +
                " \n" +
                "\n" +
                "    @Benchmark\n" +
                "\n" +
                "    @BenchmarkMode(Mode.AverageTime)\n" +
                "\n" +
                "    @OutputTimeUnit(TimeUnit.MICROSECONDS)\n" +
                "\n" +
                "    public void arrayListSize() {\n" +
                "\n" +
                "        List<String> array = new ArrayList<>(TEN_MILLION);\n" +
                "\n" +
                "        for (int i = 0; i < TEN_MILLION; i++) {\n" +
                "\n" +
                "            array.add(\"123\");\n" +
                "\n" +
                "       }\n" +
                "\n" +
                "    }\n" +
                "\n" +
                " \n" +
                "\n" +
                "    public static void main(String[] args) throws RunnerException {\n" +
                "\n" +
                "        Options opt = new OptionsBuilder()\n" +
                "\n" +
                "            .include(CollectionsTest.class.getSimpleName())\n" +
                "\n" +
                "            .forks(1)\n" +
                "\n" +
                "            .build();\n" +
                "\n" +
                "        new Runner(opt).run();\n" +
                "\n" +
                "    }\n" +
                "\n" +
                "}\n" +
                "\n" +
                " \n" +
                "\n" +
                "根据结果可以看出预设长度的效率会比用默认的效率高上很多（这里的 Score 指执行完函数所消耗的时间）。\n" +
                "\n" +
                "所以这里强烈建议大家：在有大量数据写入 ArrayList 时，一定要初始化指定长度。\n" +
                "\n" +
                "再一个是一定要慎用 add(intindex,E element) 向指定位置写入数据。\n" +
                "\n" +
                " \n" +
                "\n" +
                "通过源码我们可以看出，每一次写入都会将 index 后的数据往后移动一遍，其实本质也是要复制数组；\n" +
                "\n" +
                "但区别于往常规的往数组尾部写入数据，它每次都会进行数组复制，效率极低。\n" +
                "\n" +
                " \n" +
                "LinkedList\n" +
                "提到 ArrayList 就不得不聊下 LinkedList 这个孪生兄弟；虽说都是 List 的容器，但本质实现却完全不同。\n" +
                "\n" +
                " \n" +
                "\n" +
                "LinkedList 是由链表组成，每个节点又有头尾两个节点分别引用了前后两个节点；因此它也是一个双向链表。\n" +
                "\n" +
                "所以理论上来说它的写入非常高效，将不会有 ArrayList 中效率极低的数组复制，每次只需要移动指针即可。\n" +
                "\n" +
                "这里偷懒就不画图了，大家自行脑补下。\n" +
                "\n" +
                "对比测试\n" +
                "坊间一直流传：\n" +
                "\n" +
                "LinkedList 的写入效率高于 ArrayList，所以在写大于读的时候非常适用于 LinkedList 。\n" +
                "\n" +
                "@Benchmark\n" +
                "\n" +
                "@BenchmarkMode(Mode.AverageTime)\n" +
                "\n" +
                "@OutputTimeUnit(TimeUnit.MICROSECONDS)\n" +
                "\n" +
                "public void linkedList() {\n" +
                "\n" +
                "    List<String> array = new LinkedList<>();\n" +
                "\n" +
                "    for (int i = 0; i < TEN_MILLION; i++) {\n" +
                "\n" +
                "        array.add(\"123\");\n" +
                "\n" +
                "    }\n" +
                "\n" +
                "}\n" +
                "\n" +
                " \n" +
                "\n" +
                "这里测试看下结论是否符合；同样的也是对 LinkedList 写入 1000W 次数据，通过结果来看初始化数组长度的 ArrayList 效率明显是要高于 LinkedList 。\n" +
                "\n" +
                "但这里的前提是要提前预设 ArrayList 的数组长度，避免数组扩容，这样 ArrayList 的写入效率是非常高的，而 LinkedList 的虽然不需要复制内存，但却需要创建对象，变换指针等操作。\n" +
                "\n" +
                "而查询就不用多说了， ArrayList 可以支持下标随机访问，效率非常高。\n" +
                "\n" +
                "LinkedList 由于底层不是数组，不支持通过下标访问，而是需要根据查询 index 所在的位置来判断是从头还是从尾进行遍历。\n" +
                "\n" +
                " \n" +
                "\n" +
                "但不管是哪种都得需要移动指针来一个个遍历，特别是 index 靠近中间位置时将会非常慢。\n" +
                "\n" +
                " \n" +
                "总结\n" +
                "高性能应用都是从小细节一点点堆砌起来的，就如这里提到的 ArrayList 的坑一样，日常使用没啥大问题，一旦数据量起来所有的小问题都会成为大问题。\n" +
                "\n" +
                "所以再总结下：\n" +
                "\n" +
                "再使用 ArrayList 时如果能提前预测到数据量大小，比较大时一定要指定其长度。\n" +
                "\n" +
                "尽可能避免使用 add(index,e) api，会导致复制数组，降低效率。\n" +
                "\n" +
                "再额外提一点，我们常用的另一个 Map 容器 HashMap 也是推荐要初始化长度从而避免扩容。\n" +
                "\n" +
                "本文所有测试代码：\n" +
                "\n" +
                "https://github.com/crossoverJie/JCSprout/blob/master/src/main/java/com/crossoverjie/basic/CollectionsTest.java";
        for (char c : s.toCharArray()) {
            root.add(root,new MutiTree<>(String.valueOf(c)));
        }
        System.out.println(JSON.toJSONString(root));
    }
}
