package com.guli.gulimall.product.service.impl;

import com.alibaba.fastjson.JSON;
import com.alibaba.fastjson.TypeReference;
import com.guli.gulimall.product.service.CategoryBrandRelationService;
import com.guli.gulimall.product.vo.Catelog2Vo;
import org.apache.commons.lang.StringUtils;
import org.redisson.api.RLock;
import org.redisson.api.RedissonClient;
import org.springframework.beans.factory.annotation.Autowired;
import org.springframework.cache.annotation.CacheEvict;
import org.springframework.cache.annotation.Cacheable;
import org.springframework.cache.annotation.Caching;
import org.springframework.data.redis.core.StringRedisTemplate;
import org.springframework.data.redis.core.script.DefaultRedisScript;
import org.springframework.stereotype.Service;

import java.util.*;
import java.util.concurrent.TimeUnit;
import java.util.concurrent.locks.Lock;
import java.util.concurrent.locks.ReentrantLock;
import java.util.stream.Collectors;

import com.baomidou.mybatisplus.core.conditions.query.QueryWrapper;
import com.baomidou.mybatisplus.core.metadata.IPage;
import com.baomidou.mybatisplus.extension.service.impl.ServiceImpl;
import com.guli.common.utils.PageUtils;
import com.guli.common.utils.Query;

import com.guli.gulimall.product.dao.CategoryDao;
import com.guli.gulimall.product.entity.CategoryEntity;
import com.guli.gulimall.product.service.CategoryService;
import org.springframework.transaction.annotation.Transactional;

import javax.cache.annotation.CachePut;


@Service("categoryService")
public class CategoryServiceImpl extends ServiceImpl<CategoryDao, CategoryEntity> implements CategoryService {

    @Autowired
    private CategoryBrandRelationService categoryBrandRelationService;

    @Autowired
    StringRedisTemplate stringRedisTemplate;

    @Autowired
    RedissonClient redisson;

    @Override
    public PageUtils queryPage(Map<String, Object> params) {
        IPage<CategoryEntity> page = this.page(
                new Query<CategoryEntity>().getPage(params),
                new QueryWrapper<CategoryEntity>()
        );

        return new PageUtils(page);
    }

    @Override
    public List<CategoryEntity> listWithTree() {
        //1.查出所有分类
        List<CategoryEntity> entitys = baseMapper.selectList(null);
        //2.组装成父子的树形结构
        //2.1 找到所有一级分类
        List<CategoryEntity> level1Menus = entitys.stream().filter(categoryEntity ->
                categoryEntity.getParentCid() == 0
        ).map((menu) -> {
            menu.setChildren(getChildrens(menu, entitys));
            return menu;
        }).sorted((menu1, menu2) -> {
            return (menu1.getSort() == null ? 0 : menu1.getSort()) - (menu2.getSort() == null ? 0 : menu2.getSort());
        }).collect(Collectors.toList());


        return level1Menus;
    }

    @Override
    public void removeMenuByIds(List<Long> asList) {
        //TODO 1.检查当前删除的菜单，是否被别的地方引用
        baseMapper.deleteBatchIds(asList);
    }

    @Override
    public Long[] findCatelogPath(Long catelogId) {
        List<Long> paths = new ArrayList<>();
        List<Long> parenPath = findParenPath(catelogId, paths);
        Collections.reverse(parenPath);//倒序
        return paths.toArray(new Long[parenPath.size()]);
    }

    /**
     * 级联更新所有关联的数据
     *
     * @param category
     * @CacheEvict：失效模式 注意加单引号，不然会报错  ,只能删除分区中单个数据或者某分区下所有数据
     * @Caching: 组合操作，整合多个操作,同时进行多种缓存操作
     * @CachePut:双写模式，使用这个注解
     */
//    @Caching(evict = {
//            @CacheEvict(value = "category", key = "'getLevel1Categorys'"),
//            @CacheEvict(value = "category", key = "'getCatelogJson'")
//    })
    @CacheEvict(value = "category",allEntries = true) //删除分区中所有数据
    @Transactional
    @Override
    public void updateCascade(CategoryEntity category) {
        this.updateById(category);
        if (!StringUtils.isEmpty(category.getName())) {
            //同步更新其他关联表中的数据
            categoryBrandRelationService.updateCategory(category.getCatId(), category.getName());
        }
    }

    /**
     * 1.每一个需要缓存的数据我们都来指定要放到哪个名字的缓存,多个逗号分隔（缓存的分区,【推荐按照业务类型分】）
     * 2.@Cacheable({"category"})
     * 加注解的作用，代表当前结果需要缓存。
     * 如果缓存中有，方法不用调用，
     * 如果缓存中没有，会调用方法，最后将方法的结果放入缓存。
     * 3.默认行为
     * （1）缓存中有值，方法不调用
     * （2）缓存key是默认自动生成的： 缓存名字::SimpleKey []   例如： category::SimpleKey []
     * （3）缓存中的value默认使用 jdk序列化机制，将序列化后的数据数据存到Redis
     * （4）默认过期时间永远不过期。 （不符合我们对缓存的设计）
     * 4. 自定义操作
     * （1）指定缓存要使用的key      ：使用key属性指定，接收一个spel表达式
     * Spel的详细语法：https://docs.spring.io/spring-framework/docs/current/reference/html/integration.html#spring-integration
     * （2）指定缓存数据的存活时间    ：在配置文件中配置 spring.cache.redis.time-to-live
     * （3）将数据保存为json格式
     * CacheAutoConfigration
     * RedisCacheConfiguration
     * 建议：
     * 1.存储同一类型的数据，都可以指定同一个分区。分区名默认就是缓存的前缀
     * spring-cache的不足：
     *  1.读模式
     *      缓存穿透：查询一个null数据。                 解决：缓存空数据：spring.cache.redis.cache-null-values=true
     *      缓存击穿：大量并发同时查询一个刚好过期的数据。 解决：加锁？ 默认是无锁的, sync = true（加锁，解决击穿）
     *      缓存雪崩：大量的key同时过期。                解决：过期加随机时间：spring.cache.redis.time-to-live=3600000
     *  2.写模式（缓存与数据库一致）
     *      1）读写加锁
     *      2）引用中间件canal,感知到mysql的更新去更新缓存
     *      3）读多写多的直接去数据库查询就行
     *  总结：
     *   常规数据（读多写少，即时性不高的数据），完全可以使用SpringCache;写模式（只要缓存的数据有过期时间就足够了）
     *   特殊数据：特殊设计。
     *
     *   原理：
     *   CacheManager(RedisCacheManager)->Cache（RedisCache）->Cache负责缓存的读写
     *
     * @return
     */
    @Cacheable(value = {"category"}, key = "#root.methodName",sync = true)
    @Override
    public List<CategoryEntity> getLevel1Categorys() {
        long l = System.currentTimeMillis();
        List<CategoryEntity> entities = this.baseMapper.selectList(new QueryWrapper<CategoryEntity>().eq("parent_cid", 0));
        System.out.println("消耗时间：" + (System.currentTimeMillis() - l));
        return entities;
    }

    //todo 会产生堆外内存溢出
    // 原因：
    // 1.springboot2.0以后默认会使用 lettuce作为redis的客户端。它使用netty进行网络通信
    // 2.lettuce的bug导致堆外内存溢出 -Xmx300m; 如果没有指定堆外内存，默认使用-Xmx300m
    // 可以通过 -Dio.netty.maxDirectMemory 进行设置
    // 解决方案： 不能使用-Dio.netty.maxDirectMemory只去调大堆外内存。
    // 1）升级lettuce客户端
    // 2) 切换使用jedis客户端
    // RedisTemplate:
    // lettuce/jedis操作Redis，Spring再次封装RedisTemplate


    @Cacheable(value = {"category"},key = "#root.methodName")
    @Override
    public Map<String, List<Catelog2Vo>> getCatelogJson() {
        System.out.println("查询了数据库。。。。。");
        //将数据库点多次查询变为一次
        List<CategoryEntity> selectList = baseMapper.selectList(null);
        //1.查出所有1级分类
        List<CategoryEntity> level1Categorys = getParent_cid(selectList, 0L);
        //2.封装数据
        Map<String, List<Catelog2Vo>> parent_cid = level1Categorys.stream().collect(Collectors.toMap(k -> k.getCatId().toString(), v -> {
            //1.查询每一个一级分类下所有二级分类
            List<CategoryEntity> entities = getParent_cid(selectList, v.getCatId());
            //2.封装上面的结果
            List<Catelog2Vo> catelog2Vos = null;
            if (entities != null && entities.size() > 0) {
                catelog2Vos = entities.stream().map(l2 -> {
                    Catelog2Vo catelog2Vo = new Catelog2Vo(v.getCatId().toString(), null, l2.getCatId().toString(), l2.getName().toString());
                    //3.找到二级分类下的三级分分类并封装
                    List<CategoryEntity> level3Catelog = getParent_cid(selectList, l2.getCatId());
                    if (level3Catelog != null && level3Catelog.size() > 0) {
                        List<Catelog2Vo.catelog3Vo> collect = level3Catelog.stream().map(l3 -> {
                            Catelog2Vo.catelog3Vo catelog3Vo = new Catelog2Vo.catelog3Vo(l2.getCatId().toString(), l3.getCatId().toString(), l3.getName());
                            return catelog3Vo;
                        }).collect(Collectors.toList());
                        //封装level3
                        catelog2Vo.setCatalog3List(collect);
                    }
                    return catelog2Vo;
                }).collect(Collectors.toList());
            }
            return catelog2Vos;
        }));
        return parent_cid;
    }

    //    @Override
    public Map<String, List<Catelog2Vo>> getCatelogJson2() {
        /**
         * 缓存穿透：数据库不存在数据。
         *   解决：redis存入null值，并设置较短的过期时间3-5分钟。
         * 缓存雪崩:redis 大量数据集体过期，导致压力来到数据库。
         *   解决：设置过期时间增加1-5分钟随机值，不能大量的集体过期。
         * 缓存击穿:单个热点数据过期，导致大并发压力来到数据库。
         *   解决：如果redis没查到数据，再查询数据库的位置加锁，只有一个人会得到锁并且去查询数据库更新redis。
         */
        //1.加入缓存逻辑,缓存中所有对象都是json字符串
        //json的好处，跨语言，跨平台
        String catelogJSON = stringRedisTemplate.opsForValue().get("catelogJSON");
        Map<String, List<Catelog2Vo>> catelogJsonFromDb = null;
        if (StringUtils.isEmpty(catelogJSON)) {
            //2.缓存中没有，查询数据库
            catelogJsonFromDb = getCatelogJsonFromDbRedisson();
        } else {
            System.out.println("缓存命中。。。。。");
            catelogJsonFromDb = JSON.parseObject(catelogJSON, new TypeReference<Map<String, List<Catelog2Vo>>>() {
            });
        }
        return catelogJsonFromDb;
    }

    /**
     * 从数据库查询并封装分类数据
     * redisson 分布式锁
     * <p>
     * 考虑一个问题：缓存中的数据如何和数据库保持一致？
     * 方案一： 双写模式，修改数据库的时候，修改一下缓存。
     * 方案缺陷：并发修改，缓存出险不一致情况。 时间线 A线程 ->B线程修改数据，因网络原因，
     * B线程先回写了缓存，后A线程在回写缓存，产生了脏数据。
     * 方案二： 失效模式，修改的时候主动删除缓存中的数据。其他地方查的时候在写入缓存。
     * 方案缺陷：并发修改会出现脏数据。
     * <p>
     * 考虑缓存一致性问题：
     * 1.如果是用户维度的数据（订单数据，用户数据），这种并发几率非常小，不用考虑这个问题。
     * 2.如果是菜单，商品介绍等基础数据，也可以去使用canal订阅binlog的方式
     * canal 保证缓存一致性，它是一个插件，类似数据库从库。数据库修改发送binlog到canal然后更新Redis。
     * 3.缓存数据+过期时间也足够解决大部分业务对于缓存的要求
     * 4.通过加锁保证并发读写，写写的时候按顺序排好队。读读无所谓。所以适合使用读写锁。（业务不关心在那个数据，
     * 允许脏数据可忽略）
     * <p>
     * 总结：
     * 1.我们加入缓存的数据本就不应该是实时性，一致性要求超高的数据，
     * 所以缓存的时候加上过期时间，保证每天拿到当前最新的数据即可。
     * 2.我们不应该过度设计，增加系统的复杂性。
     * 3.遇到实时性，一致性要求高的数据，就应该查数据库，即使慢点。
     *
     * @return
     */
    public Map<String, List<Catelog2Vo>> getCatelogJsonFromDbRedisson() {
        //获取一把锁
        RLock lock = redisson.getLock("catelogJson-lock");
        try {
            //加锁,30s就会自动解锁
            lock.lock(30, TimeUnit.SECONDS);
            System.out.println("枪锁成功。。。。。。。");
            return getDataFromDb();
        } finally {
            //解锁,即使因为意外情况宕机没有解锁，也不会死锁
            lock.unlock();
        }
    }


    /**
     * 从数据库查询并封装分类数据
     * redis setnx 分布式锁
     *
     * @return
     */
    public Map<String, List<Catelog2Vo>> getCatelogJsonFromDbRedisLock() {
        /**
         * 如何加锁：
         * 1. synchronized(this); //加锁代码块,只支持单机应用，分布式不行。 注意缓存的二次检查，如果缓存已经存在则不需要查询
         * 2. ReentranLock（JUC）
         *  本地锁应用于单机情况。
         * 3. 分布式锁，集群环境
         *   3.1） redis setnx  ,注意加锁和解锁必须是原子操作
         *   3.2)  redisson
         */

        /**
         * 1.占用分布式锁，reids setnx
         */
        String uuid = UUID.randomUUID().toString();
        while (!stringRedisTemplate.opsForValue().setIfAbsent("lock", uuid, 300, TimeUnit.SECONDS)) {
            //没抢到锁，自旋
            System.out.println("枪锁失败。。。。。。。");
            try {
                Thread.sleep(200L);
            } catch (Exception e) {
            }
        }
        try {
            System.out.println("枪锁成功。。。。。。。");
            //枪锁成功
            return getDataFromDb();
        } finally {
            String script = "if redis.call('get',KEYS[1]) == ARGV[1] then     return redis.call('del',KEYS[1]) else     return 0 end";
            //解锁 setnx, lua脚本保证删除原子性
            Long lock1 = stringRedisTemplate.execute(new DefaultRedisScript<Long>(script, Long.class), Arrays.asList("lock"), uuid);
            System.out.println("解锁成功--------");
        }
    }

    private Map<String, List<Catelog2Vo>> getDataFromDb() {
        String catelogJSON = stringRedisTemplate.opsForValue().get("catelogJSON");
        if (!StringUtils.isEmpty(catelogJSON)) {
            Map<String, List<Catelog2Vo>> catelogJsonFromDb = JSON.parseObject(catelogJSON, new TypeReference<Map<String, List<Catelog2Vo>>>() {
            });
            return catelogJsonFromDb;
        }
        System.out.println("查询了数据库。。。。。");
        //将数据库点多次查询变为一次
        List<CategoryEntity> selectList = baseMapper.selectList(null);
        //1.查出所有1级分类
        List<CategoryEntity> level1Categorys = getParent_cid(selectList, 0L);
        //2.封装数据
        Map<String, List<Catelog2Vo>> parent_cid = level1Categorys.stream().collect(Collectors.toMap(k -> k.getCatId().toString(), v -> {
            //1.查询每一个一级分类下所有二级分类
            List<CategoryEntity> entities = getParent_cid(selectList, v.getCatId());
            //2.封装上面的结果
            List<Catelog2Vo> catelog2Vos = null;
            if (entities != null && entities.size() > 0) {
                catelog2Vos = entities.stream().map(l2 -> {
                    Catelog2Vo catelog2Vo = new Catelog2Vo(v.getCatId().toString(), null, l2.getCatId().toString(), l2.getName().toString());
                    //3.找到二级分类下的三级分分类并封装
                    List<CategoryEntity> level3Catelog = getParent_cid(selectList, l2.getCatId());
                    if (level3Catelog != null && level3Catelog.size() > 0) {
                        List<Catelog2Vo.catelog3Vo> collect = level3Catelog.stream().map(l3 -> {
                            Catelog2Vo.catelog3Vo catelog3Vo = new Catelog2Vo.catelog3Vo(l2.getCatId().toString(), l3.getCatId().toString(), l3.getName());
                            return catelog3Vo;
                        }).collect(Collectors.toList());
                        //封装level3
                        catelog2Vo.setCatalog3List(collect);
                    }
                    return catelog2Vo;
                }).collect(Collectors.toList());
            }
            return catelog2Vos;
        }));
        //3.将查到的数据放入缓存
        stringRedisTemplate.opsForValue().set("catelogJSON", JSON.toJSONString(parent_cid), 1, TimeUnit.DAYS);
        return parent_cid;
    }


    /**
     * 从数据库查询并封装分类数据
     * synchronized 单机锁
     *
     * @return
     */
    public Map<String, List<Catelog2Vo>> getCatelogJsonFromDbWithLocalLock() {
        /**
         * 如何加锁：
         * 1. synchronized(this); //加锁代码块,只支持单机应用，分布式不行。 注意缓存的二次检查，如果缓存已经存在则不需要查询
         * 2. ReentranLock（JUC）
         *  本地锁应用于单机情况。
         * 3. 分布式锁，集群环境
         *   3.1） redis setnx
         *   3.2)  redisson
         */
        //todo 本地锁 synchronized,ReentranLock（JUC）
        synchronized (this) {
            return getDataFromDb();
        }
    }

    private List<CategoryEntity> getParent_cid(List<CategoryEntity> selectList, Long parent_cid) {
        List<CategoryEntity> collect = selectList.stream().filter(item -> item.getParentCid() == parent_cid).collect(Collectors.toList());
        return collect;
    }

    /**
     * 递归得到完整路径
     *
     * @param catelogId
     * @return
     */
    private List<Long> findParenPath(Long catelogId, List<Long> paths) {
        //1.收集当前节点的id
        paths.add(catelogId);
        CategoryEntity byId = this.getById(catelogId);
        if (byId.getParentCid() != 0) {
            //2.当前节点还存在父节点，递归
            findParenPath(byId.getParentCid(), paths);
        }
        return paths;
    }

    //递归查找所有菜单的子菜单
    private List<CategoryEntity> getChildrens(CategoryEntity root, List<CategoryEntity> all) {
        List<CategoryEntity> childrens = all.stream().filter(categoryEntity -> {//查找父类的子类
            return categoryEntity.getParentCid() == root.getCatId();
        }).map(categoryEntity -> {//查找子类的子菜单
            categoryEntity.setChildren(getChildrens(categoryEntity, all));
            return categoryEntity;
        }).sorted((menu1, menu2) -> {//做排序
            return (menu1.getSort() == null ? 0 : menu1.getSort()) - (menu2.getSort() == null ? 0 : menu2.getSort());
        }).collect(Collectors.toList());
        return childrens;
    }

}