package com.atguigu.gulimall.product.service.impl;

import com.alibaba.fastjson.JSON;
import com.alibaba.fastjson.TypeReference;
import com.atguigu.gulimall.product.service.CategoryBrandRelationService;
import com.atguigu.gulimall.product.vo.Catelog2Vo;
import org.redisson.api.RLock;
import org.redisson.api.RedissonClient;
import org.springframework.beans.factory.annotation.Autowired;
import org.springframework.cache.annotation.CacheEvict;
import org.springframework.cache.annotation.Cacheable;
import org.springframework.cache.annotation.Caching;
import org.springframework.data.redis.core.StringRedisTemplate;
import org.springframework.data.redis.core.script.DefaultRedisScript;
import org.springframework.stereotype.Service;

import java.util.*;
import java.util.concurrent.TimeUnit;
import java.util.stream.Collectors;

import com.baomidou.mybatisplus.core.conditions.query.QueryWrapper;
import com.baomidou.mybatisplus.core.metadata.IPage;
import com.baomidou.mybatisplus.extension.service.impl.ServiceImpl;
import com.atguigu.common.utils.PageUtils;
import com.atguigu.common.utils.Query;

import com.atguigu.gulimall.product.dao.CategoryDao;
import com.atguigu.gulimall.product.entity.CategoryEntity;
import com.atguigu.gulimall.product.service.CategoryService;
import org.springframework.transaction.annotation.Transactional;
import org.springframework.util.StringUtils;


@Service("categoryService")
public class CategoryServiceImpl extends ServiceImpl<CategoryDao, CategoryEntity> implements CategoryService {

    // 使用Map作为缓存
    /**
     * 这个叫本地缓存，和本地项目在同一个进程中
     * 存在问题：
     * （1）分布式，多台服务器，每个服务器都有自己独立的缓存，如果依次负载均衡到1、2、3号服务器，都需要查询一次，还是查太多了
     * （2）分布式，多台服务器，如果服务器1改了缓存中的数据，那么服务器2、3的数据还是错的，存在数据一致性问题
     */
//    private Map<String,Object> cache = new HashMap<>();


    @Autowired
    CategoryBrandRelationService categoryBrandRelationService;

    @Autowired
    private StringRedisTemplate redisTemplate;

    @Autowired
    RedissonClient redisson;


    @Override
    public PageUtils queryPage(Map<String, Object> params) {
        IPage<CategoryEntity> page = this.page(
                new Query<CategoryEntity>().getPage(params),
                new QueryWrapper<CategoryEntity>()
        );

        return new PageUtils(page);
    }

    @Override
    public List<CategoryEntity> listWithTree() {
        // 1、查出所有分类
        List<CategoryEntity> entities = baseMapper.selectList(null);

        // 2、组装成父子的树形结构

        // 2.1 找到所有的一级分类（所有的一级分类的父分类id都是0）
        List<CategoryEntity> level1Menus = entities.stream().filter(categoryEntity ->
                categoryEntity.getParentCid() == 0
        ).map((menu) -> {              // map()方法：映射每个元素
            // 调用方法，查询每个菜单的子菜单。 这是一个递归的方法。传给的参数是，要查询其子菜单的菜单 和 所有菜单
            menu.setChildren(getChildrens(menu, entities));
            return menu;
        }).sorted((menu1, menu2) -> {   // sort()方法：给查到的菜单排个序   那肯定要传入两个元素，比较
            // 拿到两个菜单的sort值，相减得到一个差值，作为一个升降序的参考值   注意拿到的sort值是Integer类型，可能为空，所以做个处理
            return (menu1.getSort() == null ? 0 : menu1.getSort()) - (menu2.getSort() == null ? 0 : menu2.getSort());
        }).collect(Collectors.toList());


        return level1Menus;
    }

    @Override
    public void removeMenuByIds(List<Long> asList) {
        // TODO  1、检查当前删除的菜单，是否被别的地方引用

        // 逻辑删除
        baseMapper.deleteBatchIds(asList);
    }

    // [2,25,225]
    @Override
    public Long[] findCatelogPath(Long catelogId) {
        List<Long> paths = new ArrayList<>();
        List<Long> parentPath = findParentPath(catelogId, paths);

        Collections.reverse(parentPath);

        return parentPath.toArray(new Long[parentPath.size()]);
    }


    /**
     * 级联更新所有关联的数据
     *
     * @CacheEvict：失效模式
     * 1、同时进行多种缓存操作  @Caching
     * 2、指定删除某个分区下的所有数据 @CacheEvict(value = "category",allEntries = true)
     * 3、存储同一类型的数据，都可以指定成同一个分区。分区名默认就是缓存的前缀
     * @param category
     */
//    @Caching(evict = {
//            @CacheEvict(value = "category",key = "'getLevel1Categorys'"),
//            @CacheEvict(value = "category",key = "'getCatalogJson'")
//    })
    // category:key
    @CacheEvict(value = "category",allEntries = true)     // 失效模式
    @Transactional       // 不仅更新自己的还更新级联的：这是一个事务
    @Override
    public void updateCascade(CategoryEntity category) {
        // 更新自己表
        this.updateById(category);
        // 更新级联表
        categoryBrandRelationService.updateCategory(category.getCatId(), category.getName());

        // 方法（1）双写模式-同时修改缓存中的数据

        // 方法（2）失效模式-删除缓存：redis.del("catalogJSON")  等待下次主动查询进行更新

    }



    /**
     *  （1）每一个需要缓存的数据都来指定要放到哪个名字的缓存中。【缓存的分区（按照业务类型分）】
     *  （2）@Cacheable({"category"})
     *          代表当前方法的结果需要缓存，如果缓存中有，方法不用调用；
     *          如果缓存中没有，会调用方法，并把方法结果放入缓存
     *  （3）默认行为
     *          1）如果缓存中有，方法不用调用
     *          2）key默认自动生成，缓存的名字是   缓存的名字::SimpleKey [] （自主生成的key值）
     *          3）缓存的value的值，默认使用jdk序列化机制，将序列化后的数据存到redis
     *          4）默认ttl时间  -1  ，也就是永不过期
     *
     *  （4）自定义
     *          1）指定生成的缓存使用的key：    key属性指定，接收一个SpEL
     *              SpEL的详细使用参照：https://docs.spring.io/spring-framework/docs/5.1.12.RELEASE/spring-framework-reference/integration.html#cache-spel-context
     *          2）指定缓存的数据的存活时间      配置文件中修改ttl
     *          3）将数据保存为json格式
     *
     *  （5）SpringCache的不足：
     *          1）读模式
     *              1-缓存穿透：查询一个null数据。解决：缓存空数据  spring.cache.redis.cache-null-values=true
     *              2-缓存击穿：大量并发进来同时查询一个刚好过期的数据  解决：加锁     ？ 默认是无加锁的
     *                          sync = true     加锁，解决击穿
     *              3-缓存雪崩：大量的key同时过期   解决：加随机时间（可能会弄巧成拙）/ 加过期时间 spring.cache.redis.time-to-live=3600000
     *          2）写模式（缓存与数据库的一致）
     *              1-读写加锁
     *              2-引入Canal，感知到MySQL的更新去更新数据库
     *              3-读多写多：直接去数据库查询就行
     *
     *    【总结】：
     *          常规数据（读多写少/即时性/一致性要求不高的数据）：完全可以使用SpringCache，写模式（只要缓存的数据有过期时间就足够了）
     *          特殊数据：特殊设计
     *
     *    原理：
     *          CacheManager(RedisCacheManager)->Cache(RedisCache)->Cache负责缓存的读写
     *
     *
     */

    /**
     * 查询菜单的一级分类
     * @return
     */
    @Cacheable(value = {"category"},key = "#root.method.name",sync = true)
    @Override
    public List<CategoryEntity> getLevel1Categorys() {
        System.out.println("getLevel1Categorys......");
        long l = System.currentTimeMillis();

        List<CategoryEntity> categoryEntities = baseMapper.selectList(new QueryWrapper<CategoryEntity>().eq("parent_cid", 0));
        System.out.println("消耗时间" + (System.currentTimeMillis() - l));
        return categoryEntities;
    }

    /**
     * 从数据库中获取所有分类数据（版本-使用缓存）
     * @return
     */
    @Cacheable(value = "category",key = "#root.methodName")
    @Override
    public Map<String, List<Catelog2Vo>> getCatalogJson() {
        System.out.println("查询了数据库....");
        List<CategoryEntity> selectList = baseMapper.selectList(null);
        List<CategoryEntity> level1Categorys = getParent_cid(selectList, 0L);

        Map<String, List<Catelog2Vo>> parent_cid = level1Categorys.stream().collect(Collectors.toMap(k -> k.getCatId().toString(), v -> {
            // 1）每一个的一级分类，查到这个一级分类的二级分类
            List<CategoryEntity> categoryEntities = getParent_cid(selectList, v.getCatId());
            // 2）封装上面的结果
            List<Catelog2Vo> catelog2Vos = null;
            if (categoryEntities != null) {
                catelog2Vos = categoryEntities.stream().map(l2 -> {
                    Catelog2Vo catelog2Vo = new Catelog2Vo(v.getCatId().toString(), null, l2.getCatId().toString(), l2.getName());
                    // 1-找当前二级分类的三级分类，封装成vo
                    List<CategoryEntity> level3Catelog = getParent_cid(selectList, l2.getCatId());
                    if (level3Catelog != null) {
                        List<Catelog2Vo.Catelog3Vo> collect = level3Catelog.stream().map(l3 -> {
                            // 2-封装成指定格式
                            Catelog2Vo.Catelog3Vo catelog3Vo = new Catelog2Vo.Catelog3Vo(l2.getCatId().toString(), l3.getCatId().toString(), l3.getName());
                            return catelog3Vo;
                        }).collect(Collectors.toList());
                        catelog2Vo.setCatalog3List(collect);
                    }
                    return catelog2Vo;
                }).collect(Collectors.toList());
            }
            return catelog2Vos;
        }));
        return parent_cid;
    }

    /**
     * TODO 产生堆外内存溢出：OutOfDirectMemoryError
     * 原因：
     * （1）springboot2.0以后默认使用lettuce作为操作redis的客户端，他使用netty进行网络通信
     * （2）lettuce的bug导致堆外内存溢出 -Xmx300m   netty如果没有指定堆外内存，默认使用-Xmx300m
     * 可以通过 -Dio.netty.maxDirectMemory进行设置
     * 解决方案：
     * ！！！不能使用-Dio.netty.maxDirectMemory只去调大堆外内存
     * （1）升级lettuce客户端
     * （2）切换使用jedis客户端操作
     * <p>
     * lettuce、jedis操作redis的底层客户端，spring再次封装为redisTemplate
     */
//    @Override
    public Map<String, List<Catelog2Vo>> getCatalogJson2() {

        /**
         *  【1】空结果缓存：解决缓存穿透
         *  【2】设置过期时间（加随机值）：解决缓存雪崩
         *  【3】加锁：解决缓存击穿
         */

        /*
            给缓存中放json字符串，拿出的json字符串，还要逆转为能用的对象类型【序列化与反序列化】
         */
        // 1、加入缓存逻辑，缓存中存的数据是json字符串
        // json好处：跨语言、跨平台兼容的
        String catalogJSON = redisTemplate.opsForValue().get("catalogJSON");
        if (StringUtils.isEmpty(catalogJSON)) {
            // 2、缓存中没有，查询数据库
            System.out.println("缓存不命中...将要查询数据库...");
            Map<String, List<Catelog2Vo>> catalogJsonFromDb = getCatalogJsonFromDbWithRedisLock();

            return catalogJsonFromDb;
        }

        System.out.println("缓存命中啦！直接返回...");
        // 转为我们指定的对象
        Map<String, List<Catelog2Vo>> result = JSON.parseObject(catalogJSON, new TypeReference<Map<String, List<Catelog2Vo>>>() {
        });
        return result;
    }

    /**
     * 缓存里面的数据如何和数据库保持一致呢？     【缓存数据一致性】
     *      【缓存数据一致性】
     *          （1）双写模式
     *          （2）失效模式
     *
     */

    /**
     * 从数据库中获取所有分类数据————————使用Redisson（操作redis的客户端）实现
     *
     * @return
     */
    public Map<String, List<Catelog2Vo>> getCatalogJsonFromDbWithRedissonLock() {
        // 1、锁的名字。 ---> 锁的粒度，越细越快
        // 锁的粒度：如果具体缓存是某个数据，11-号商品。 取名应该是product-11-lock  product-12-lock，而不是  product-lock
        RLock lock = redisson.getLock("CatalogJson-lock");
        lock.lock();
        Map<String, List<Catelog2Vo>> dataFromDb;
        try {
            dataFromDb = getDataFromDb();
        } finally {
            lock.unlock();
        }
        return dataFromDb;
    }


    /**
     * 从数据库中获取所有分类数据————————使用分布式锁  Redis
     *
     * @return
     */
    public Map<String, List<Catelog2Vo>> getCatalogJsonFromDbWithRedisLock() {

        // 1、占分布式锁，去redis占坑
        String uuid = UUID.randomUUID().toString();
        Boolean lock = redisTemplate.opsForValue().setIfAbsent("lock", uuid, 300, TimeUnit.SECONDS);
        if (lock) {
            System.out.println("获取分布式锁成功啦~");
            // 加锁成功.... 执行业务
            /*
                2、设置过期时间（防止执行一半，在删除锁之前断电或异常的话，会导致死锁。如果在设置过期时间之前断电了呢？）
                    结论： 设置过期时间必须和加锁是同步的，是原子性的
             */
            // redisTemplate.expire("lock",30,TimeUnit.SECONDS);

            Map<String, List<Catelog2Vo>> dataFromDb;

            try {
                dataFromDb = getDataFromDb();
            } finally {
                // lua 脚本解锁
                String script = "if redis.call('get', KEYS[1]) == ARGV[1] then return redis.call('del', KEYS[1]) else return 0 end";
                // 删除锁
                Long lock1 = redisTemplate.execute(new DefaultRedisScript<Long>(script, Long.class)
                        , Arrays.asList("lock"), uuid);
            }
            /**
             * 获取值对比 + 对比成功删除 = 原子操作    lua脚本解锁
             */
//            String lockValue = redisTemplate.opsForValue().get("lock");
//            if(uuid.equals(lockValue)){
//                // 删除我自己的锁
//                redisTemplate.delete("lock");  // 删除锁
//            }
            return dataFromDb;
        } else {
            System.out.println("获取分布式锁失败惹~等待重试！");
            // 加锁失败.... 重试     （例如synchronized()方法本身就是自旋的，监听锁一旦被释放马上抢占）
            // 休眠100ms再重试
            try {
                Thread.sleep(200);
            } catch (Exception e) {

            }

            return getCatalogJsonFromDbWithRedisLock();  // 自旋

        }
    }


    /**
     * 从数据库中获取所有分类数据
     *
     * @return
     */
    private Map<String, List<Catelog2Vo>> getDataFromDb() {
        String catalogJSON = redisTemplate.opsForValue().get("catalogJSON");
        if (!StringUtils.isEmpty(catalogJSON)) {
            // 如果缓存不为null，直接返回
            Map<String, List<Catelog2Vo>> result = JSON.parseObject(catalogJSON, new TypeReference<Map<String, List<Catelog2Vo>>>() {
            });
            return result;
        }
        System.out.println("查询了数据库....");

        List<CategoryEntity> selectList = baseMapper.selectList(null);

        List<CategoryEntity> level1Categorys = getParent_cid(selectList, 0L);

        Map<String, List<Catelog2Vo>> parent_cid = level1Categorys.stream().collect(Collectors.toMap(k -> k.getCatId().toString(), v -> {
            // 1）每一个的一级分类，查到这个一级分类的二级分类
            List<CategoryEntity> categoryEntities = getParent_cid(selectList, v.getCatId());
            // 2）封装上面的结果
            List<Catelog2Vo> catelog2Vos = null;
            if (categoryEntities != null) {
                catelog2Vos = categoryEntities.stream().map(l2 -> {
                    Catelog2Vo catelog2Vo = new Catelog2Vo(v.getCatId().toString(), null, l2.getCatId().toString(), l2.getName());
                    // 1-找当前二级分类的三级分类，封装成vo
                    List<CategoryEntity> level3Catelog = getParent_cid(selectList, l2.getCatId());
                    if (level3Catelog != null) {
                        List<Catelog2Vo.Catelog3Vo> collect = level3Catelog.stream().map(l3 -> {
                            // 2-封装成指定格式
                            Catelog2Vo.Catelog3Vo catelog3Vo = new Catelog2Vo.Catelog3Vo(l2.getCatId().toString(), l3.getCatId().toString(), l3.getName());
                            return catelog3Vo;
                        }).collect(Collectors.toList());
                        catelog2Vo.setCatalog3List(collect);
                    }


                    return catelog2Vo;
                }).collect(Collectors.toList());
            }

            return catelog2Vos;
        }));

        // 3、将查到的数据再放入缓存，将对象转为json放在缓存中
        String s = JSON.toJSONString(parent_cid);
        redisTemplate.opsForValue().set("catalogJSON", s, 1, TimeUnit.DAYS);

        return parent_cid;
    }


    /**
     * 从数据库中查询并封装整个三级分类数据
     *
     * @return
     */
    public Map<String, List<Catelog2Vo>> getCatalogJsonFromDbWithLocalLock() {

//        // 1、如果缓存中有就用缓存的
//        Map<String, List<Catelog2Vo>> catalogJson = (Map<String, List<Catelog2Vo>>) cache.get("catalogJson");
//        // 2、如果缓存中没有就查询，然后把结果放到缓存map中
//        if(cache.get("catalogJson") == null){
//            // 调用业务  xxxx
//            // 返回数据又放入缓存
//            cache.put("catalogJson",parent_cid);
//        }
//        return catalogJson;

        /**
         *      【优化1】————将数据库的多次查询变为一次
         *
         *    理解：本来是嵌套循环，查询到所有1级分类，然后遍历所有的1级分类，根据1级分类的id再到数据库中查某条父id与之相等的2级分类，
         *         然后再遍历这个2级分类，根据这个2级分类的id再到数据库中查某条父id与之相等的3级分类。这样循环查询。
         *         之前这样写的业务逻辑，和数据库交互的次数太多了。
         *
         *         改之后的逻辑：
         *              改成只查一次，首先第一步到数据库查出所有的分类（1、2、3级全部）集合selectList，然后当需要查某个分类的子分类时，就只需要
         *              调用方法getParent_cid，这个方法的作用是：找到某个父id下的所有分类
         *              传入整个分类集合selectList和要查的这个父id，遍历selectList，找到其中父id和此父id相等的分类，封装成集合返回即可
         *
         *         改之后，只查了一次数据库。
         *
         *
         *
         */

        /**
         * 加锁：只要是同一把锁，就能锁住需要锁的所有线程
         *      （1）synchronized (this)：SpringBoot所有的组件在容器中都是单例的，这个CategoryServiceImpl也是只有一个的，所有的请求
         *                               过来，都使用的是这1个对象。所以是可以锁住的。但是这是本地锁，在分布式多台服务器情况下，每台服务器都有一个单例
         *                               锁不住所有的
         *       TODO 本地锁：synchronized，JUC(Lock) 只锁当前进程，在分布式情况下，想要锁住所有必须使用分布式锁
         *
         */
        synchronized (this) {
            // 得到锁之后，我们应该再去缓存中确定一次，如果没有数据才需要继续查询
            return getDataFromDb();
        }


    }


    /**
     * 找到某个父id下的所有分类
     *
     * @param selectList 所查询的集合
     * @param parent_cid 指定的父id
     * @return
     */
    private List<CategoryEntity> getParent_cid(List<CategoryEntity> selectList, Long parent_cid) {
        List<CategoryEntity> collect = selectList.stream().filter(item -> item.getParentCid() == parent_cid).collect(Collectors.toList());

        // return baseMapper.selectList(new QueryWrapper<CategoryEntity>().eq("parent_cid", v.getCatId()));
        return collect;
    }


    // 225,25,2  收集一个节点的完整路径
    private List<Long> findParentPath(Long catelogId, List<Long> paths) {
        // 1、收集当前节点id
        paths.add(catelogId);
        CategoryEntity byId = this.getById(catelogId);
        if (byId.getParentCid() != 0) {
            findParentPath(byId.getParentCid(), paths);
        }
        return paths;
    }


    // 递归查找所有菜单的子菜单
    private List<CategoryEntity> getChildrens(CategoryEntity root, List<CategoryEntity> all) {

        // 注意这些子菜单中他们也可能还有子菜单
        List<CategoryEntity> children = all.stream().filter(categoryEntity -> {
            // 先过滤：如果这个元素的父ID等于root的id，说明就是root的子菜单
            return categoryEntity.getParentCid() == root.getCatId();
        }).map(categoryEntity -> {
            // 【找子菜单】
            // 做一个映射，找当前菜单的子菜单
            categoryEntity.setChildren(getChildrens(categoryEntity, all));
            return categoryEntity;
        }).sorted((menu1, menu2) -> {
            // 【菜单的排序】
            // 然后做个排序
            return (menu1.getSort() == null ? 0 : menu1.getSort()) - (menu2.getSort() == null ? 0 : menu2.getSort());
        }).collect(Collectors.toList());   // 然后再把这些元素收集到一个集合中

        return children;
    }

}