package com.atguigu.gulimall.product.service.impl;

import com.alibaba.fastjson.JSON;
import com.alibaba.fastjson.TypeReference;
import com.atguigu.gulimall.product.service.CategoryBrandRelationService;
import com.atguigu.gulimall.product.vo.Catelog2Vo;
import org.apache.ibatis.logging.LogException;
import org.redisson.api.RLock;
import org.redisson.api.RedissonClient;
import org.springframework.beans.factory.annotation.Autowired;
import org.springframework.cache.annotation.*;
import org.springframework.data.redis.cache.RedisCacheManager;
import org.springframework.data.redis.core.StringRedisTemplate;
import org.springframework.data.redis.core.script.DefaultRedisScript;
import org.springframework.stereotype.Service;

import java.util.*;
import java.util.concurrent.TimeUnit;
import java.util.stream.Collectors;

import com.baomidou.mybatisplus.core.conditions.query.QueryWrapper;
import com.baomidou.mybatisplus.core.metadata.IPage;
import com.baomidou.mybatisplus.extension.service.impl.ServiceImpl;
import com.atguigu.common.utils.PageUtils;
import com.atguigu.common.utils.Query;

import com.atguigu.gulimall.product.dao.CategoryDao;
import com.atguigu.gulimall.product.entity.CategoryEntity;
import com.atguigu.gulimall.product.service.CategoryService;
import org.springframework.transaction.annotation.Transactional;
import org.springframework.util.StringUtils;


@Service("categoryService")
public class CategoryServiceImpl extends ServiceImpl<CategoryDao, CategoryEntity> implements CategoryService {
    //private Map<String, Object> cache = new HashMap<>();
    @Autowired
    CategoryBrandRelationService categoryBrandRelationService;

    @Autowired
    StringRedisTemplate redisTemplate;

    @Autowired
    RedissonClient redissonClient;

    @Override
    public PageUtils queryPage(Map<String, Object> params) {
        IPage<CategoryEntity> page = this.page(
                new Query<CategoryEntity>().getPage(params),
                new QueryWrapper<CategoryEntity>()
        );

        return new PageUtils(page);
    }

    @Override
    public List<CategoryEntity> listWithTree() {
        //查出所有分类
        List<CategoryEntity> Entities = baseMapper.selectList(null);
        //组装成父子树形结构
        //1.找到一级分类
        List<CategoryEntity> level1Menus = Entities.stream().filter((categoryEntity) -> {
            return categoryEntity.getParentCid() == 0;
        }).map((menu)->{
            menu.setChildren(getChildrens(menu,Entities));
            return menu;
        }).sorted((menu1,menu2)->{
            return (menu1.getSort()==null?0:menu1.getSort()) - (menu2.getSort()==null?0:menu2.getSort());
        }).collect(Collectors.toList());


        return level1Menus;
    }

    @Override
    public void removeMenuByIds(List<Long> list) {
        //TODO 检查当前删除的菜单是否被别的地方引用

        //物理删除
        baseMapper.deleteBatchIds(list);

        //逻辑删除
    }

    @Override
    public Long[] findCatelogPath(Long catelogId) {
        //父 子 孙 Long[]
        List<Long> paths = new ArrayList<>();
        findParentPath(catelogId, paths);
        //逆序
        Collections.reverse(paths);
        return paths.toArray(new Long[paths.size()]);
    }

    /**
    * 级联更新所有关联的数据
    * @CacheEvict：失效模式
     *
     * 其实最好设计成这样：
     *      在get的时候 都加到同一个组里面
     *      在update的时候 全部都删除 用@Caching来组合
     *
     *      要清除多个第一种：
     *      @Caching(evict = {
     *             @CacheEvict(value = {"catagory"},key = "'getLevel1Categorys'")
     *             ,@CacheEvict(value = {"catagory"},key = "'getLevel1Categorys'") 假设有其他的
     *     })
     *
     *     第二种：
     *     按整个区域来
     *     @CacheEvict(value = {"catagory"},allEntries = true)
     *
     * 存储同一类型的数据，都指定成同一个分区。分区名默认就是缓存的前缀
     *
     * 不足的地方：
     *      1、读模式
     *          缓存穿透：缓存空数据 spring.cache.redis.cache-null-values=true
     *          缓存击穿：大量并发进来同时查询一个正好过期的数据。加锁！！！（spring.cache 未命中的时候默认是无加锁的，无法应对缓存击穿。
     *                                                          开启sync = true！！！开启后 会先调用get[get里面有put，整个get是加了锁的]）
     *          缓存雪崩：大量缓存同时失效。增加随机时间值！！！
     *      2、写模式：（缓存与数据库一致）
     *          读写分开加锁。适用于读多写少的系统。且加锁可以应对失效模式下的数据一致性问题
     *          引入Canal，感知到Mysql的更新去更新缓存
     *          读多写多的，直接去数据库查询就行
     * 总结：
     *      常规数据（读多写少，即时性，一致性要求不高的数据）：完全可以使用springCache
     *      特殊数据：特殊设计。
     *
     * 原理：
     *      CacheManager(RedisCacheManager)->Cache(RedisCache)->Cache负责缓存的读写
     *      首先我们看RedisCache。
     *              最终缓存没命中的时候，回去异步调用原本的方法，最后跳到里面的put，这整个流程没有加锁。所以默认是无加锁的，无法应对缓存击穿。
    */
    //@CacheEvict(value = {"catagory"},allEntries = true)
    @Caching(evict = {
            @CacheEvict(value = {"catagory"},key = "'getLevel1Categorys'")
            //,@CacheEvict(value = {"catagory"},key = "'getLevel1Categorys'") 假设有其他的
    })
    @Override
    @Transactional
    public void updateCascade(CategoryEntity category) {
        this.updateById(category);
        categoryBrandRelationService.updateCategory(category.getCatId(),category.getName());

        //TODO 更新其他冗余字段
    }

    /**
     * 每一个需要缓存的数据我们都来指定要放到哪个名字的缓存【缓存的分区（按照业务类型分）】
     * 代表当前方法的结果需要缓存，如果缓存中有，方法就不调用。如果缓存中没有，会调用方法，最后结果放入缓存。
     *
     * 默认行为：
     * 如果缓存中没有，会调用方法，最后结果放入缓存。
     * key 默认自动生成的，缓存名字：SimpleKey{}(自助生成的key值)
     * value 默认使用jdk序列化机制，将序列化后的数据存到redis
     * TTL为-1，永不过期（所以需要注意用@CacheEvict）
     *
     * 自定义：
     * 指定生成的缓存使用的key: key属性指定，接受一个SpEl
     * 指定过期时间：配置文件中 spring.cache.redis.time-to-live= 3600000
     * 将数据保存为json格式（假如其他的语言或者生态要用到redis里的数据，应该要兼容）
     *      CacheAutoConfiguration
     *      RedisCacheConfiguration
     * @return
     */
    @Cacheable(value = {"catagory"},key = "#root.methodName",sync = true)
    @Override
    public List<CategoryEntity> getLevel1Categorys() {
        System.out.println("getLevel1Categorys");
        List<CategoryEntity> categoryEntities = baseMapper.selectList(new QueryWrapper<CategoryEntity>()
                .eq("parent_cid", 0));
        return categoryEntities;
    }
    /**
     * 新问题，缓存里面的数据如何和数据库保持一致
     * ：双写模式和失效模式
     * 这两个问题都会存在数据库和缓存不一致问题（多个实例的情况下）
     *
     * 有一些解决方法：比如使用读写锁，读缓存和更新缓存和删除缓存都用这一个
     * 或者使用canal订阅机制来更新缓存 Canal伪装成数据库从库
     *
     * 我们系统的一致性解决方案：
     * 1、缓存的所有数据都有过期时间，数据过期下一次查询触发主动更新
     * 2、读写数据的时候加上分布式的读写锁。（经常写，经常读肯定有性能影响）但如果是大量的读 则影响不大
     * 3、采用失效模式，主动删除缓存。
     * @return
     */
    @Override
    public Map<String, List<Catelog2Vo>> getCatalogJson() {
        //占锁，要注意名字和锁的粒度
        //锁的粒度：具体缓存的某个数据，11号商品：product-11-lock,product-12-lock， product-lock不太好用
        RLock lock = redissonClient.getLock("catalogJson-lock");
        lock.lock();
        String catalogJSON = "";
        try{
            catalogJSON = redisTemplate.opsForValue().get("catalogJSON");
            if(StringUtils.isEmpty(catalogJSON)){
                //2、缓存中没有
                Map<String, List<Catelog2Vo>> catalogJsonFromDb = getCatalogJsonFromDb();
                //3、转成JSON 放入缓存
                String s = JSON.toJSONString(catalogJsonFromDb);
                redisTemplate.opsForValue().set("catalogJSON",s,20 + (int) (Math.random() * 10), TimeUnit.HOURS);
                return catalogJsonFromDb;
            }
        }catch (Exception e){
            System.out.println(e.getMessage());
        }
        finally {
            lock.unlock();
        }
        //转化为指定对象
        Map<String, List<Catelog2Vo>> result = JSON.parseObject(catalogJSON, new TypeReference<Map<String, List<Catelog2Vo>>>() {});
        return result;
    }

    /**
     * 下面是原本的只是使用redis的sexNX加上过期时间EX的方法
     * 解锁时候用lua脚本的方法实现的，我们重新写一个在上面（使用redisson更加完善）
     */
    /**
     * TODO 产生堆外内存溢出：OutOfDirectMemoryError
     * 1、springboot2.0以后默认使用lettuce作为操作redis的客户端
     *  进去排查后发现<netty-version>4.1.38.Final</netty-version>
     *  他使用netty进行网络通信，主要原因是Lettuce的bug导致netty堆外内存溢出
     *  我的参数是-Xmx2048m -Xms2048m -Xmn1024m
     *  netty如果没有指定堆外内存，默认使用-Xmx
     *      可以通过Dio.netty.maxDirectMemory进行设置
     *
     *  解决方案：不能使用Dio.netty.maxDirectMemory只去调大-Xmx2048m，这样做只能延缓
     *  所以：1、升级lettuce客户端  2、使用jedis
     *  这两个都是操作redis的都曾客户端。
     *  而RedisTemplate是对上面两个的再次封装。
     */
//    @Override
//    public Map<String, List<Catelog2Vo>> getCatalogJson() {
//        /**
//         * 这里要解决三个问题：缓存穿透、缓存击穿、缓存雪崩
//         * 缓存穿透：空结果要缓存（这里一般不存在这样的问题）
//         * 缓存雪崩：增加随机值的过期时间，避免所有缓存在同一时间失效，造成大量数据库查询
//         * 缓存击穿：加锁，防止热点数据在失效的瞬间大量查询（其实这里也可以使用刷新缓存过期时间）
//         *          针对缓存击穿这里有很多方法，一是加锁，二是双重检查 锁机制+volatile
//         *
//         *          加锁后的测试：单机项目没问题，但是如果多个机器分布式的跑，经过测试，锁不住，多少台机器就有多少个锁
//         *          所以改进优化 使用分布式锁！！（虽然效率肯定会降低）
//         */
//        /* 使用本地锁的方式
//        //1、加入缓存逻辑
//        String catalogJSON = redisTemplate.opsForValue().get("catalogJSON");
//        if(StringUtils.isEmpty(catalogJSON)){
//            synchronized (this){//这样加锁 只适合单体项目，如果是分布式则容器多个，实例有多个，也就是有多把锁，锁不住
//                //得到锁后再查一遍
//                catalogJSON = redisTemplate.opsForValue().get("catalogJSON");
//                if(StringUtils.isEmpty(catalogJSON)){
//                    //2、缓存中没有
//                    Map<String, List<Catelog2Vo>> catalogJsonFromDb = getCatalogJsonFromDb();
//                    //3、转成JSON 放入缓存
//                    String s = JSON.toJSONString(catalogJsonFromDb);
//                    redisTemplate.opsForValue().set("catalogJSON",s,20 + (int) (Math.random() * 10), TimeUnit.HOURS);
//                    return catalogJsonFromDb;
//                }
//            }
//        }
//        //转化为指定对象
//        Map<String, List<Catelog2Vo>> result = JSON.parseObject(catalogJSON, new TypeReference<Map<String, List<Catelog2Vo>>>() {});
//        return result;
//        */
//        //使用分布式锁的方式
//        //1、加入缓存逻辑
//        String catalogJSON = redisTemplate.opsForValue().get("catalogJSON");
//        String uuid = UUID.randomUUID().toString();
//        if(StringUtils.isEmpty(catalogJSON)){
//            Boolean lock = redisTemplate.opsForValue().setIfAbsent("lockForCatalogJSON", uuid,30,TimeUnit.SECONDS);//分布式锁，这里需要设置一个自动过期时间
//            //否则不安全，因为如果运行到业务逻辑的时候断电了，或者其他情况，那么锁将不会释放
//            /**
//             * 这里有好几个问题，只设置了过期时间是不够的，第一个问题是，过期时间到了，结果业务还没结束，就会出现多个线程同时运行业务代码的问题
//             * 过期时间还有个问题，如果业务进行完了，当前线程的锁过期了，其他线程加上了锁，而当前线程去删除的也就是其他线程加上的锁
//             *
//             * 对于这两个情况，我们需要加上UUID来防止线程误删其他线程的锁，把value设置成UUID
//             * 在删锁的时候判断当前lock是否是当前线程设置的锁
//             *
//             * 但是我们发现在设置了UUID后 仍然避免不了原子性的问题（删除锁分为两步：获取对应value   比较uuid和value一样后删除）
//             * 为了解决这个问题，我们需要使用lua脚本
//             *
//             * 总结：
//             *      加锁和解锁都要遵循原子性问题
//             *          加锁用：SET KEY UUID NX EX
//             *          解锁用：LUA脚本确定UUID相同的情况下原子性删除
//             */
//            if(lock){
//                try{
//                    //得到锁后再查一遍
//                    catalogJSON = redisTemplate.opsForValue().get("catalogJSON");
//                    if(StringUtils.isEmpty(catalogJSON)){
//                        //2、缓存中没有
//                        Map<String, List<Catelog2Vo>> catalogJsonFromDb = getCatalogJsonFromDb();
//                        //3、转成JSON 放入缓存
//                        String s = JSON.toJSONString(catalogJsonFromDb);
//                        redisTemplate.opsForValue().set("catalogJSON",s,20 + (int) (Math.random() * 10), TimeUnit.HOURS);
//                        /*//解锁
//                        String lockForCatalogJSONValue = redisTemplate.opsForValue().get("lockForCatalogJSON");
//                        if(uuid.equals(lockForCatalogJSONValue)){
//                            redisTemplate.delete("lockForCatalogJSON");
//                        }*/
//                        String script = "if redis.call('get', KEYS[1]) == ARGV[1]" +
//                                " then return redis.call('del', KEYS[1])" +
//                                " else return 0 end)";
//                        redisTemplate.execute(new DefaultRedisScript<Long>(script,Long.class),
//                                Arrays.asList("lockForCatalogJSON"),uuid);
//                        return catalogJsonFromDb;
//                    }else{
//                        //现在能查到了
//                        /*//解锁
//                        String lockForCatalogJSONValue = redisTemplate.opsForValue().get("lockForCatalogJSON");
//                        if(uuid.equals(lockForCatalogJSONValue)){
//                            redisTemplate.delete("lockForCatalogJSON");
//                        }*/
//                        String script = "if redis.call('get', KEYS[1]) == ARGV[1] then return redis.call('del', KEYS[1]) else return 0 end)";
//                        redisTemplate.execute(new DefaultRedisScript<Integer>(script,Integer.class),
//                                Arrays.asList("lockForCatalogJSON"),uuid);
//                    }
//                }catch (Exception e){
//                    System.out.println(e.getMessage());
//                }
//            }else{
//                //加锁失败...重试
//                return getCatalogJson();
//                //TODO 改成while+重试次数 可以规避掉SOF的问题
//            }
//        }
//        //转化为指定对象
//        Map<String, List<Catelog2Vo>> result = JSON.parseObject(catalogJSON, new TypeReference<Map<String, List<Catelog2Vo>>>() {});
//        return result;
//    }

    //从数据库查询并封装分类数据
    public Map<String, List<Catelog2Vo>> getCatalogJsonFromDb() {
        /**
         * 优化 将数据库的多次查询变为1次
         * 第二次优化：cache缓存(性能提高了3倍)
         *
         * BUG:::这里的cache只适合单体项目，如果是分布式就不适合了会出现两个问题
         * 第一个问题是，如果每次负载均衡到同一台机器，那就不用反复查数据库，但是这显然不可能
         * 第二个问题是，如果对cache做了修改，那么还得同步到数据库，还得同步到其他分布式机器的cache，要么就得加一个定时过期的机制反而更麻烦
         * 所以最终解决方案，是使用一个可以分布式访问的共享的cache，由它来实现解决负载均衡不重复访问数据库和数据一致性的问题。
         * 这里我们使用redis
         *
         *
         * 这里我使用redis做缓存后，docker查看压力测试状态，redis的CPU跑满了，吞吐量反而下降了下来
         * 并且有概率出现报错：Redis exception; nested exception is io.lettuce.core.RedisException: io.netty.util.internal.
         * OutOfDirectMemoryError: failed to allocate 1002438656 byte(s) of direct memory (used: 1015021568, max: 2013265920)
         * 解决方法：
         *          <exclusions>
         *                 <exclusion>
         *                     <groupId>io.lettuce</groupId>
         *                     <artifactId>lettuce-core</artifactId>
         *                 </exclusion>
         *             </exclusions>
         */
        /*Map<String,List<Catelog2Vo>> catalogJson = (Map<String, List<Catelog2Vo>>) cache.get("catalogJson");
        if(cache.get("catalogJson") == null){
            //进行业务逻辑
            //返回数据
            cache.put("catalogJson", parent_cid);
        }
        return catalogJson;*/

        List<CategoryEntity> selectList = baseMapper.selectList(null);

        //查出所有的1级分类
        //List<CategoryEntity> level1Categorys = getLevel1Categorys();
        List<CategoryEntity> level1Categorys = getParent_cid(selectList,0L);
        //封装数据
        Map<String, List<Catelog2Vo>> parent_cid = level1Categorys.stream().collect(
                Collectors.toMap(
                        k -> k.getCatId().toString(),
                        v -> {//拿到每一个的一级分类，查到这个一个分类的二级分类
                            List<CategoryEntity> categoryEntities = getParent_cid(selectList,v.getParentCid());
                            //封装！
                            List<Catelog2Vo> catelog2Vos = null;
                            if (categoryEntities != null) {
                                //当前1级分类ID封装起来的2级分类的集合
                                catelog2Vos = categoryEntities.stream().map(l2 -> {
                                    Catelog2Vo catelog2Vo = new Catelog2Vo(
                                            v.getCatId().toString(),
                                            null,//查找对应的三级分类
                                            l2.getCatId().toString(),
                                            l2.getName());
                                    //三级分类List
                                    List<CategoryEntity> level3Catelog = getParent_cid(selectList,l2.getParentCid());
                                    //封装
                                    List<Catelog2Vo.Catelog3Vo> catelog3Vos =null;
                                    if(level3Catelog!=null){
                                        catelog3Vos = level3Catelog.stream().map(l3 -> {
                                            Catelog2Vo.Catelog3Vo catelog3Vo = new Catelog2Vo.Catelog3Vo(
                                                    l2.getCatId().toString(),l3.getCatId().toString(),l3.getName());
                                            return catelog3Vo;
                                        }).collect(Collectors.toList());
                                    }
                                    catelog2Vo.setCatalog3List(catelog3Vos);
                                    return catelog2Vo;
                                }).collect(Collectors.toList());
                            }
                            return catelog2Vos;
                        }));
        return parent_cid;
    }

    private List<CategoryEntity> getParent_cid(List<CategoryEntity> selectList,Long parent_cid) {
        return selectList.stream().filter(item -> item.getParentCid().equals(parent_cid)).collect(Collectors.toList());
        /*return baseMapper.selectList(
                new QueryWrapper<CategoryEntity>()
                        .eq("parent_cid", v.getCatId()));*/
    }

    private List<Long> findParentPath(Long catelogId, List<Long> paths) {
        paths.add(catelogId);
        CategoryEntity byId = this.getById(catelogId);
        if(byId.getParentCid()!=0){
            findParentPath(byId.getParentCid(), paths);
        }
        return paths;
    }

    private List<CategoryEntity> getChildrens(CategoryEntity root, List<CategoryEntity> all) {
        //递归查找所有菜单的子菜单
        List<CategoryEntity> children = all.stream().filter((categoryEntity) -> {
            return categoryEntity.getParentCid() == root.getCatId();
        }).map((menu)->{
            menu.setChildren(getChildrens(menu,all));
            return menu;
        }).sorted((menu1,menu2)->{
            return (menu1.getSort()==null?0:menu1.getSort()) - (menu2.getSort()==null?0:menu2.getSort());
        }).collect(Collectors.toList());

        return children;
    }

}