package com.atguigu.gulimall.product.service.impl;

import com.alibaba.fastjson.JSON;
import com.alibaba.fastjson.TypeReference;
import com.atguigu.gulimall.product.service.CategoryBrandRelationService;
import com.atguigu.gulimall.product.vo.Catelog2Vo;
import jdk.jfr.Category;
import org.apache.commons.lang.StringUtils;
import org.redisson.api.RLock;
import org.redisson.api.RedissonClient;
import org.springframework.beans.factory.annotation.Autowired;
import org.springframework.cache.annotation.CacheEvict;
import org.springframework.cache.annotation.Cacheable;
import org.springframework.cache.annotation.Caching;
import org.springframework.data.redis.core.StringRedisTemplate;
import org.springframework.data.redis.core.script.DefaultRedisScript;
import org.springframework.stereotype.Service;

import java.util.*;
import java.util.concurrent.TimeUnit;
import java.util.stream.Collectors;

import com.baomidou.mybatisplus.core.conditions.query.QueryWrapper;
import com.baomidou.mybatisplus.core.metadata.IPage;
import com.baomidou.mybatisplus.extension.service.impl.ServiceImpl;
import com.atguigu.common.utils.PageUtils;
import com.atguigu.common.utils.Query;

import com.atguigu.gulimall.product.dao.CategoryDao;
import com.atguigu.gulimall.product.entity.CategoryEntity;
import com.atguigu.gulimall.product.service.CategoryService;
import org.springframework.transaction.annotation.Transactional;


@Service("categoryService")
public class CategoryServiceImpl extends ServiceImpl<CategoryDao, CategoryEntity> implements CategoryService {

    private Map<String, Object> cache = new HashMap<>();

    @Autowired
    CategoryBrandRelationService categoryBrandRelationService;

    @Autowired
    StringRedisTemplate redisTemplate;

    @Autowired
    RedissonClient redisson;

    @Override
    public PageUtils queryPage(Map<String, Object> params) {
        IPage<CategoryEntity> page = this.page(
                new Query<CategoryEntity>().getPage(params),
                new QueryWrapper<CategoryEntity>()
        );

        return new PageUtils(page);
    }

    @Override
    public List<CategoryEntity> listWithTree() {
        // 1. 查出所有分类
        List<CategoryEntity> entities = baseMapper.selectList(null);

        // 2. 组装成父子的树形结构
        // 2.1 找到所有的一级分类
        List<CategoryEntity> level1Menus = entities.stream().filter((categoryEntity) -> {
            return categoryEntity.getParentCid() == 0;
        }).map((menu)->{
            menu.setChildren(getChildren(menu, entities));
            return menu;
        }).sorted((menu1, menu2)->{
            return (menu1.getSort() == null ? 0 : menu1.getSort()) -
                    (menu2.getSort() == null ? 0 : menu2.getSort());
        }).collect(Collectors.toList());

        return level1Menus;
    }

    @Override
    public void removeMenuByIds(List<Long> asList) {
        //TODO: 检查当前删除的菜单,是否被其他地方引用

        // 开发期间,多会使用逻辑删除
        baseMapper.deleteBatchIds(asList);
    }

    @Override
    public Long[] findCatelogPath(Long catelogId) {
        List<Long> paths = new ArrayList<>();

        List<Long> parentPath = findParentPath(catelogId, paths);

        Collections.reverse(parentPath);  // 反转

        return parentPath.toArray(new Long[parentPath.size()]);
    }

    /**
     * 级联更新所有关联的数据
     * 1、同时进行多种缓存操作  @Caching
     * 2、指定删除某个分区下的所有数据@CacheEvict(value = "category", allEntries = true)
     *
     * 3、存储同一类型的数据，都可以指定同一分区。分区名默认就是缓存的前缀
     * @param category
     */
    //    @Caching(evict = {
//            @CacheEvict(value = {"category"}, key = "'getLevel1Categorys'"),
//            @CacheEvict(value = {"category"}, key = "'getCatalogJson'")
//    })
    @CacheEvict(value = "category", allEntries = true)//失效模式
//    @CachePut  //双写模式   此方法没有返回值，因此不支持双写模式
    @Transactional //不但更新自己，还需要级联更新相关数据，所以用事务
    @Override
    public void updateCascade(CategoryEntity category) {
        this.updateById(category);
        categoryBrandRelationService.updateCategory(category.getCatId(), category.getName());
    }

    /***
     * 查询所有一级分类
     *
     * //1) 指定缓存分区. 每一个需要缓存的数据我们都来指定要放到哪一个名字的缓存。[缓存的分区（按照业务类型分）]
     *     2)@Cacheable({"category"})  //代表当前方法的【结果】需要缓存，如果缓存中有，方法不调用，
     *     如果缓存中没有，会调用方法，最后将方法的结果放入缓存。
     *     3)默认行为
     *      1）如果缓存中存在，方法不调用
     *      2）key是默认生成的： 缓存的名字::SimpleKey []                category::SimpleKey []
     *      3)缓存的value值，默认使用java序列化机制，将序列化后的数据存到redis。
     *      4)默认过期时间:-1（永久）
     *
     *      自定义：
     *      1）指定生成的缓存使用的key  key属性指定，接受一个 Spring Expression Language (SpEL) expression
     *      (SpEL详细)https://docs.spring.io/spring-framework/docs/current/reference/html/integration.html#cache-spel-context
     *      2）指定缓存的数据的存活时间  在配置文件中设置spring.cache.redis.time-to-live=360000
     *      3）将数据保存为JSON格式
     *          自定义RedisCacheConfiguration即可
     *      4、Spring-Cache的不足
     *      1）、读模式：
     *      缓存穿透：  查询一个null数据，spring.cache.redis.cache-null-values=true  不用担心
     *      缓存击穿：  大量并发进来同时查询一个正好过期的数据。解决： 加锁  默认是不加锁的。@Cacheable(sync = true)可加本地锁,但性能降低，
     *                                                              其在判断缓存中有无数据时就加了锁，而不是说判断缓存中没有数据查询数据库时加锁。
     *      缓存雪崩：   大量的额key同时过期。解决：加随机时间。这里以加上过期时间作为解决方式，因为设置key的时间是随机的。
     *
     *      2）写模式（缓存与数据库的一致）  以下提供解决方案思路，spring-cache没有考虑到写模式以下解决方案。
     *        1）读写锁。
     *        2）引入canal，感知到mysql数据库去更新缓存
     *        3）读多写多，直接去数据库查询就行
     *
     *        总结：
     *        常规数据（读多写少，即时性，一致性要求不高的数据）：完全可以使用Spring-Cache。只要缓存的数据有过期时间就足够了。
     *        特殊数据特殊设计
     *
     *      原理：CacheManager(RedisCacheManager)->Cache(RedisCache)->负责缓存的读写
     * @return
     */
    @Cacheable(value = {"category"}, key = "#root.method.name", sync = true)   // 代表当前方法的结果需要缓存, 如果缓存中有,方法不用调用.
    @Override
    public List<CategoryEntity> getLevel1Categorys() {
        List<CategoryEntity> categoryEntities = this.baseMapper.selectList(new QueryWrapper<CategoryEntity>().eq("parent_cid", 0));
        return categoryEntities;
    }

    //TODO 产生堆外内存溢出: OutOfDirectMemoryError
    // 1) springboot2.0以后默认使用lettuce作为操作redis的客户端,它使用netty进行网络通信.
    // 2) lettuce的bug导致netty堆外存溢出 -Xmx300m: netty如果没有指定堆外内存,默认使用-Xmx300m
    //      可以通过 -Dio.netty.maxDirectMemory进行设置
    // 解决方案: 不能仅仅使用-Dio.netty.maxDirectMemory进行调大
    //  1) 升级lettuce     2) 切换使用jedis

    @Cacheable(value = "category", key = "#root.methodName")
    @Override
    public Map<String, List<Catelog2Vo>> getCatalogJson() {
        System.out.println("查询了数据库");
        // 1. 查出所有1级分类
        List<CategoryEntity> level1Categorys = this.getLevel1Categorys();
        // 2. 封装数据
        Map<String, List<Catelog2Vo>> parent_cid = level1Categorys.stream().collect(Collectors.toMap(k -> k.getCatId().toString(), v -> {
            // 1. 每一个的1级分类, 查到这个类的所有二级分类
            List<CategoryEntity> categoryEntities = this.baseMapper.selectList(new QueryWrapper<CategoryEntity>().eq("parent_cid", v.getCatId()));
            List<Catelog2Vo> catelog2Vos = null;
            if (categoryEntities != null && !categoryEntities.isEmpty()) {
                catelog2Vos = categoryEntities.stream().map(l2 -> {
                    Catelog2Vo catelog2Vo = new Catelog2Vo(v.getCatId().toString(), null, l2.getCatId().toString(), l2.getName());

                    // 1. 找当前二级分类的三级分类封装成vo
                    List<CategoryEntity> level3Catelog = this.baseMapper.selectList(new QueryWrapper<CategoryEntity>().eq("parent_cid", l2.getCatId()));
                    if (level3Catelog != null && !level3Catelog.isEmpty()) {
                        List<Catelog2Vo.Catelog3Vo> collect = level3Catelog.stream().map(l3 -> {
                            // 2. 封装成指定格式
                            Catelog2Vo.Catelog3Vo catelog3Vo = new Catelog2Vo.Catelog3Vo(l2.getCatId().toString(), l3.getCatId().toString(), l3.getName());

                            return catelog3Vo;
                        }).collect(Collectors.toList());
                        catelog2Vo.setCatalog3List(collect);
                    }
                    return catelog2Vo;
                }).collect(Collectors.toList());
            }
            return catelog2Vos;
        }));
        return parent_cid;
    }

    // 从数据库查询并封装分类数据
    public Map<String, List<Catelog2Vo>> getCatalogJson2() {

        /**
         * 1. 空结果缓存: 解决缓存穿透问题
         * 2. 设置过期时间(使用随机过期时间,解决缓存雪崩问题)
         * 3. 加锁: 解决缓存击穿问题
         */

        // 1. 加入缓存逻辑, 缓存中存的数据是JSON字符串
        // JSON的好处是跨语言跨平台的兼容
        String catalogJSON = redisTemplate.opsForValue().get("catalogJSON");
        if (StringUtils.isEmpty(catalogJSON)) {
            // 2. 缓存中没有
            System.out.println("缓存不命中, 查询数据库");
            Map<String, List<Catelog2Vo>> catalogJsonFromDb = getCatalogJsonFromDbWithRedissonLock();
            return catalogJsonFromDb;
        }

        System.out.println("缓存命中, 直接返回");
        // 缓存JSON字符串数据转对象
        return JSON.parseObject(catalogJSON, new TypeReference<Map<String, List<Catelog2Vo>>>(){});
    }

    /**
     * 缓存里面的数据如何和数据库保持一致
     * 数据一致性: 读到的最新数据有延迟：最终一致性, 一致性肯呢个会迟到, 但绝不会缺席
     * 1）、双写模式: 修改时覆盖缓存, 会有产生脏数据操作, 可以加锁
     * 2）、失效模式: 删除旧缓存: 还是有脏数据
     * 锁的粒度的选择:
     *  1. 具体缓存的是某个数据：11号商品。product-11-lock product-12-lock。
     *  2.
     * @return
     */

    /**
     * • 无论是双写模式还是失效模式，都会导致缓存的不一致问题。即多个实例同时更新会出事。怎么办？
     * • 1、如果是用户纬度数据（订单数据、用户数据），这种并发几率非常小，不用考虑这个问题，缓存数据加
     * 上过期时间，每隔一段时间触发读的主动更新即可
     * • 2、如果是菜单，商品介绍等基础数据，也可以去使用canal订阅binlog的方式。
     * • 3、缓存数据+过期时间也足够解决大部分业务对于缓存的要求。
     * • 4、通过加锁保证并发读写，写写的时候按顺序排好队。读读无所谓。所以适合使用读写锁。（业务不关心
     * 脏数据，允许临时脏数据可忽略）；
     * • 总结：
     * • 我们能放入缓存的数据本就不应该是实时性、一致性要求超高的。所以缓存数据的时候加上过期时间，保
     * 证每天拿到当前最新数据即可。
     * • 我们不应该过度设计，增加系统的复杂性
     * • 遇到实时性、一致性要求高的数据，就应该查数据库，即使慢点。
     * @return
     */
    public Map<String, List<Catelog2Vo>> getCatalogJsonFromDbWithRedissonLock() {

        //锁的名字，锁的粒度。粒度约细，越快。
        //锁的粒度：具体缓存的是某个数据：11号商品。product-11-lock product-12-lock。

        RLock categoryLock = redisson.getLock("CatalogJson-lock");
        Map<String, List<Catelog2Vo>> dataFromDb = null;
        try {
            categoryLock.lock();
            System.out.println("获取分布式锁成功。。。。");
            dataFromDb = getDataFromDb();
        }finally {
            categoryLock.unlock();
        }
        return dataFromDb;
    }

    public Map<String, List<Catelog2Vo>> getCatalogJsonFromDbWithRedisLock() {
        /**
         * 本地缓存: 本地缓存会出现很多问题, 多个节点, 会出现数据不一直的问题. 导致缓存混乱
         * 加锁时需要注意, 使用同一把锁, 锁住需要这个锁的所有线程
         *  1. synchronized(this), SpringBoot所有的组件在容器中都是单例的.
         *
         * 注意:
         *  1. 得到锁以后,我们应该再去缓存中确定一次,如果没有,才需要继续查询
         *  2. 本地锁只能锁住当前进程, 分布式情况下, 例如多个不同的微服务,就不能加锁了
         *  3. 在分布式锁中, 加锁操作必须是原子的
         *  4. 删锁时, 防止业务超时导致的误删:
         *      解决方法, 加锁时,设置lock的值是一个随机的唯一的值
         *  5. 经过4的操作,还不能杜绝误删, 由于网络交互费时导致的误删, 一定要保证原子操作
         *  6. 锁的自动续期
         */
        // 1. 去redis占坑

        String uuid = UUID.randomUUID().toString();
        Boolean lock = redisTemplate.opsForValue().setIfAbsent("lock", uuid, 300, TimeUnit.SECONDS);
        if (lock) {
            System.out.println("获取分布式锁成功");
            // 得到锁以后,我们应该再去缓存中确定一次,如果没有,才需要继续查询
            Map<String, List<Catelog2Vo>> dataFromDb = null;

            try {
                 dataFromDb = getDataFromDb();
            } finally {
                // 网络交互费时, 必须要保证原子操作
                String script = "if redis.call(\"get\",KEYS[1]) == ARGV[1]\n" +
                        "then\n" +
                        "    return redis.call(\"del\",KEYS[1])\n" +
                        "else\n" +
                        "    return 0\n" +
                        "end";
                redisTemplate.execute(new DefaultRedisScript<Integer>(script, Integer.class)
                        , Arrays.asList("lock"), uuid);
//            String lockValue = redisTemplate.opsForValue().get("lock");
//            if (uuid.equals(lockValue)) {
//                redisTemplate.delete("lock");  // 删除锁
//            }
            }
            return dataFromDb;
        } else {
            // 加锁失败: 重试
//            System.out.println("获取分布式锁失败, 等待重试");
            try {
                Thread.sleep(200);
            } catch (InterruptedException e) {
                e.printStackTrace();
            }
            return getCatalogJsonFromDbWithRedisLock();
        }
    }

    public Map<String, List<Catelog2Vo>> getCatalogJsonFromDbWithLocalLock() {
        /**
         * 本地缓存: 本地缓存会出现很多问题, 多个节点, 会出现数据不一直的问题. 导致缓存混乱
         * 加锁时需要注意, 使用同一把锁, 锁住需要这个锁的所有线程
         *  1. synchronized(this), SpringBoot所有的组件在容器中都是单例的.
         *
         * 注意:
         *  1. 得到锁以后,我们应该再去缓存中确定一次,如果没有,才需要继续查询
         *  2. 本地锁只能锁住当前进程, 分布式情况下, 例如多个不同的微服务,就不能加锁了
         */

        synchronized (this) {
            return getDataFromDb();
        }
    }

    private Map<String, List<Catelog2Vo>> getDataFromDb() {
        String catalogJSON = redisTemplate.opsForValue().get("catalogJSON");
        if (!StringUtils.isEmpty(catalogJSON)) {
            // 如果缓存不为空,直接返回
            Map<String, List<Catelog2Vo>> result = JSON.parseObject(catalogJSON, new TypeReference<Map<String, List<Catelog2Vo>>>() {
            });
            return result;
        }
        System.out.println("查询了数据库");
        // 1. 查出所有1级分类
        List<CategoryEntity> level1Categorys = this.getLevel1Categorys();
        // 2. 封装数据
        Map<String, List<Catelog2Vo>> parent_cid = level1Categorys.stream().collect(Collectors.toMap(k -> k.getCatId().toString(), v -> {
            // 1. 每一个的1级分类, 查到这个类的所有二级分类
            List<CategoryEntity> categoryEntities = this.baseMapper.selectList(new QueryWrapper<CategoryEntity>().eq("parent_cid", v.getCatId()));
            List<Catelog2Vo> catelog2Vos = null;
            if (categoryEntities != null && !categoryEntities.isEmpty()) {
                catelog2Vos = categoryEntities.stream().map(l2 -> {
                    Catelog2Vo catelog2Vo = new Catelog2Vo(v.getCatId().toString(), null, l2.getCatId().toString(), l2.getName());

                    // 1. 找当前二级分类的三级分类封装成vo
                    List<CategoryEntity> level3Catelog = this.baseMapper.selectList(new QueryWrapper<CategoryEntity>().eq("parent_cid", l2.getCatId()));
                    if (level3Catelog != null && !level3Catelog.isEmpty()) {
                        List<Catelog2Vo.Catelog3Vo> collect = level3Catelog.stream().map(l3 -> {
                            // 2. 封装成指定格式
                            Catelog2Vo.Catelog3Vo catelog3Vo = new Catelog2Vo.Catelog3Vo(l2.getCatId().toString(), l3.getCatId().toString(), l3.getName());

                            return catelog3Vo;
                        }).collect(Collectors.toList());
                        catelog2Vo.setCatalog3List(collect);
                    }
                    return catelog2Vo;
                }).collect(Collectors.toList());
            }
            return catelog2Vos;
        }));
        // 3. 查询到的数据再放入缓存
        String s = JSON.toJSONString(parent_cid);
        redisTemplate.opsForValue().set("catalogJSON", s);
        return parent_cid;
    }

    private List<Long> findParentPath(Long catelogId, List<Long> paths) {
        // 1. 收集当前节点id
        paths.add(catelogId);
        CategoryEntity byId = this.getById(catelogId);
        if (byId.getParentCid() != 0) {  // 还有父亲
            findParentPath(byId.getParentCid(), paths);
        }

        return paths;
    }

    // 递归查找所有菜单的子菜单
    private List<CategoryEntity> getChildren(CategoryEntity root, List<CategoryEntity> all) {

        List<CategoryEntity> children = all.stream().filter(categoryEntity->{
            return categoryEntity.getParentCid() == root.getCatId();
        }).map(categoryEntity -> {
            // 1. 找到子菜单
            categoryEntity.setChildren(getChildren(categoryEntity, all));
            return categoryEntity;
        }).sorted((menu1, menu2) -> {
            // 2. 菜单的排序
            return (menu1.getSort() == null ? 0 : menu1.getSort()) -
                    (menu2.getSort() == null ? 0 : menu2.getSort());
        }).collect(Collectors.toList());

        return children;
    }

}