package com.atguigu.gulimall.product.service.impl;

import com.alibaba.fastjson.JSON;
import com.alibaba.fastjson.TypeReference;
import com.atguigu.common.utils.PageUtils;
import com.atguigu.common.utils.Query;
import com.atguigu.gulimall.product.service.CategoryBrandRelationService;
import com.atguigu.gulimall.product.vo.Catelog2Vo;
import org.redisson.api.RLock;
import org.redisson.api.RedissonClient;
import org.springframework.beans.factory.annotation.Autowired;
import org.springframework.cache.annotation.CacheEvict;
import org.springframework.cache.annotation.Cacheable;
import org.springframework.data.redis.core.StringRedisTemplate;
import org.springframework.data.redis.core.script.DefaultRedisScript;
import org.springframework.stereotype.Service;

import java.util.*;
import java.util.concurrent.TimeUnit;
import java.util.stream.Collectors;

import com.baomidou.mybatisplus.core.conditions.query.QueryWrapper;
import com.baomidou.mybatisplus.core.metadata.IPage;
import com.baomidou.mybatisplus.extension.service.impl.ServiceImpl;

import com.atguigu.gulimall.product.dao.CategoryDao;
import com.atguigu.gulimall.product.entity.CategoryEntity;
import com.atguigu.gulimall.product.service.CategoryService;
import org.springframework.transaction.annotation.Transactional;
import org.springframework.util.StringUtils;


@Service("categoryService")
public class CategoryServiceImpl extends ServiceImpl<CategoryDao, CategoryEntity> implements CategoryService {

//    @Autowired
//    CategoryDao categoryDao;
    @Autowired
    CategoryBrandRelationService categoryBrandRelationService;

    @Autowired
    private StringRedisTemplate redisTemplate;

    @Autowired
    private RedissonClient redisson;

    @Override
    public PageUtils queryPage(Map<String, Object> params) {
        IPage<CategoryEntity> page = this.page(
                new Query<CategoryEntity>().getPage(params),
                new QueryWrapper<CategoryEntity>()
        );

        return new PageUtils(page);
    }

    @Override
    public void removeMenuByIds(List<Long> asList) {
        //TODO  1.//检查当前删除的菜单，是否被别的地方引用
        baseMapper.deleteBatchIds(asList);
    }

    @Override
    public Long[] findCatelogPath(Long catelogId) {
        List<Long> paths = new ArrayList<>();
        List<Long> parentPath = findParentPath(catelogId,paths);
        Collections.reverse(parentPath);
        return parentPath.toArray(new Long[parentPath.size()]);
    }

    /*
    * @CacheEvict失效模式的使用
    * 1.同时进行多种缓存操作  @Caching
    * 2.指定删除某个分区下的所有数据  @CacheEvict(value = "category",allEntries = true)
    * 3.存储同一类型的数据，都可以指定成同一个分区。
    */
//    @Caching(evict = {@CacheEvict(value = "category",key = "'getLevel1Categorys'"),
//            @CacheEvict(value = "category",key = "'getCatalogJson'"),
//    })
    @CacheEvict(value = "category",allEntries = true)
//    @CachePut  双写模式
    @Transactional
    @Override
    public void updateCascade(CategoryEntity category) {
        this.updateById(category);
        categoryBrandRelationService.updateCategory(category.getCatId(),category.getName());
        //同时修改缓存中的数据
        //redis.del("catalogJSON");等待下次主动查询进行更新
    }

    /*
    * 1.每一个需要缓存的数据我们都来指定要放到哪个名字的缓存【缓存的分区（按照业务类型分）】
    * 2.@Cacheable({"category"})
    *    代表当前方法的结果需要缓存，如果缓存中有
    *    方法不用调用，如果缓存中没有，会调用方法，最后将方法的结果放入缓存
    * 3.默认行为
    *       1).如果缓存中有，方法不用调用
    *       2).key是默认自动生成，缓存名字：缓存名字::SimpleKey[](自主生成的key值)
    *       3).缓存的value的值，默认使用jdk序列化机制，将序列化后的数据存到redis
    *       4).默认时间ttl是-1(缓存永不过期)
    *
    *   自定义，
    *     1.),指定生成的缓存使用的key:   key属性指定，接受一个spEL
    *     2.),指定缓存的数据的存活时间    配置文件中修改ttl
    *     3.),将数据保存为JSON格式
    *              CacheAutoConfiguration -> RedisCachefiguration ->
    *              自动配置了RedisCacheManager->初始化所有的缓存->每个缓存决定使用什么配置
    *              ->如果redisCacheConfiguration有就用自己的，没有就要默认配置->
    *              想改缓存的配置，只需要给容器中放一个redisCacheConfiguration即可
    *              ->就会应用到当前RedisCacheManager管理的所有缓存分区中
    * 4.spring-Cache的不足
    *       1).读模式：
    *           缓存穿透：查询一个null数据，解决方案：缓存空数据：cache-null-valuestrue
    *           缓存雪崩：大量的key同时过期，解决方案：加随机时间。加上过期时间
    *           缓存击透：大量并发进来同时查询一个正好过期的数据，解决方案：加锁（默认无加锁）
    *       2).写模式：（缓存与数据库一致）
    *           1）.读写加锁.
    *           2）.引入Canal,感知到MySQL的更新去更新数据库
    *           3）.读多写多直接去数据库查询就行
    *       总结：常规数据（读多写少，及时性，一致性要求不高的数据）；完全可以使用spring-Cache：写模式（只要缓存的数据有过期时间就足够了）
    *
    *            特殊数据：特殊设计
    *
    *    原理:
    *       CacheManager（RedisCacheManager）->Cache（RedisCache）->Cache负责缓存的读写
    */

    @Cacheable(value = {"category"},key = "#root.method.name",sync = true)
    @Override
    public List<CategoryEntity> getLevel1Categorys() {
        List<CategoryEntity> categoryEntities = baseMapper.selectList(new QueryWrapper<CategoryEntity>().eq("parent_cid",0));
        return categoryEntities;
    }

    //TODO 产生堆外内存溢出，outofDirectMemoryError
    //1),springboot2.0以后默认使用lettuce操作redis的客户端。它使用netty进行网络通信
    //2),lettuce的bug导致netty堆外内存溢出 -Xmx512m netty如果没有指定堆外内存，默认使用-Xmx512m作为堆外内存，可以通过-Dio.netty.maxDirectMemory进行设置
    //解决方案：不能使用-Dio.netty.maxDirectMemory只去调大堆外内存。
    //1),升级lettuce客户端。
    //2),切换使用jedis
    //3).lettuce和jedis操作redis的底层客户端，spring再次封装redisTemplate；
//    @Override
    public Map<String, List<Catelog2Vo>> getCatalogJson2() {
        //给缓存中放json字符串，拿出的json字符串，还用逆转为能用的对象类型:【序列化与反序列化】

        /*
        * 1.空结果缓存：解决缓存穿透问题
        * 2.设置过期时间（加随机值）；解决缓存雪崩问题
        * 3.加锁，解决缓存击穿问题
        */

        //1.加入缓存逻辑，缓存中存的数据是json字符串。
        //JSON跨语言，跨平台兼容。
         String catalogJSON = redisTemplate.opsForValue().get("catalogJSON");
         if(StringUtils.isEmpty(catalogJSON)){
            //2.缓存中没有，查询数据库
             System.out.println("缓存不命中，将要查询数据库");
            Map<String, List<Catelog2Vo>> catalogJsonFromDb = getCatalogJsonFromDbWithRedisLock();
            return catalogJsonFromDb;
         }
         //转为我们指定的对象。
        System.out.println("缓存命中，不用查询数据库，直接返回");
        Map<String, List<Catelog2Vo>> result = JSON.parseObject(catalogJSON,new TypeReference<Map<String, List<Catelog2Vo>>>(){});
        return result;
    };

    @Cacheable(value = "category",key = "#root.methodName")
    @Override
    public Map<String, List<Catelog2Vo>> getCatalogJson(){
        List<CategoryEntity> selectList = baseMapper.selectList(null);
        List<CategoryEntity> level1Categorys = getParent_cid(selectList, 0L);
        //封装数据
        Map<String, List<Catelog2Vo>> parent_cid = level1Categorys.stream().collect(Collectors.toMap(k -> k.getCatId().toString(), v -> {
            List<CategoryEntity> categoryEntities = getParent_cid(selectList, v.getCatId());
            List<Catelog2Vo> catelog2Vos = null;
            if (categoryEntities != null) {
                catelog2Vos = categoryEntities.stream().map(l2 -> {
                    Catelog2Vo catelog2Vo = new Catelog2Vo(v.getCatId().toString(), null, l2.getCatId().toString(), l2.getName());
                    //1.找当前二级分类的三级分类封装成vo
                    List<CategoryEntity> level3Catelog = getParent_cid(selectList, l2.getCatId());
                    if (level3Catelog != null) {
                        List<Catelog2Vo.Catelog3Vo> collect = level3Catelog.stream().map(l3 -> {
                            //封装成指定格式
                            Catelog2Vo.Catelog3Vo catelog3Vo = new Catelog2Vo.Catelog3Vo(l2.getCatId().toString(), l3.getCatId().toString(), l3.getName());
                            return catelog3Vo;
                        }).collect(Collectors.toList());
                        catelog2Vo.setCatalog3List(collect);
                    }
                    return catelog2Vo;
                }).collect(Collectors.toList());
            }
            return catelog2Vos;
        }));
        return parent_cid;
    }

    public Map<String, List<Catelog2Vo>> getCatalogJsonFromDbWithRedisLock() {

        //1.占分布式锁，去redis占坑
        String uuid = UUID.randomUUID().toString();
        Boolean lock = redisTemplate.opsForValue().setIfAbsent("lock",uuid,300,TimeUnit.SECONDS);
        if(lock){
            System.out.println("获取分布式锁成功。。。。");
            //加锁成功......执行业务
            //2.设置过期时间,必须和加锁是同步的，原子的
//            redisTemplate.expire("lock",30,TimeUnit.SECONDS);
            Map<String, List<Catelog2Vo>> dataFromDb;
            try {
                dataFromDb = getDataFromDb();
            }finally {
                String script = "if redis.call('get', KEYS[1]) == ARGV[1] then return redis.call('del', KEYS[1]) else return 0 end";
                //删除锁
                Long lock1 = redisTemplate.execute(new DefaultRedisScript<Long>(script,Long.class),Arrays.asList("lock"),uuid);
            }
            //获取值比对+比对成功删除=原子操作 lua解锁
//            String lockValue = redisTemplate.opsForValue().get("lock");
//            if(uuid.equals(lockValue)){
//                //删除我自己的锁
//                redisTemplate.delete("lock");//删除锁
//            }
            return dataFromDb;
        }else{
            //加锁失败......重试。
            //休眠100ms重试
            System.out.println("获取分布式锁失败。。。。等待重试");
            try {
                Thread.sleep(200);
            }catch (Exception e){

            }
            return getCatalogJsonFromDbWithRedisLock();//自旋的方式
        }
    }

    /*
    * 缓存里面的数据如何和数据库保持一致
    * 缓存数据一致性
    * 1）,双写模式
    * 2）,失效模式
    * 解决方案：
    * 1.换成的所有数据都有过期时间，数据过期下一次查询触发主动更新
    * 2.读写数据的时候，加上分布式的读写锁，经常写，经常读会有影响
    */
    public Map<String, List<Catelog2Vo>> getCatalogJsonFromDbWithRedissonLock() {

        //1.占分布式锁，去redis占坑
        //锁的名字，锁的粒度，越细越快
        //锁的粒度：具体缓存的是某个数据，11-号商品，product-11-lock
        RLock lock = redisson.getLock("CatalogJson-lock");
        lock.lock();
        Map<String, List<Catelog2Vo>> dataFromDb;
        try {
            dataFromDb = getDataFromDb();
        }finally {
            lock.unlock();
        }
        return dataFromDb;
    }

    private Map<String, List<Catelog2Vo>> getDataFromDb() {
        String catalogJSON = redisTemplate.opsForValue().get("catalogJSON");
        if (!StringUtils.isEmpty(catalogJSON)) {
            //缓存不为空直接返回
            Map<String, List<Catelog2Vo>> result = JSON.parseObject(catalogJSON, new TypeReference<Map<String, List<Catelog2Vo>>>() {
            });
            return result;
        }
        System.out.println("查询了数据库。。。。。。");
        List<CategoryEntity> selectList = baseMapper.selectList(null);
        List<CategoryEntity> level1Categorys = getParent_cid(selectList, 0L);
        //封装数据
        Map<String, List<Catelog2Vo>> parent_cid = level1Categorys.stream().collect(Collectors.toMap(k -> k.getCatId().toString(), v -> {
            List<CategoryEntity> categoryEntities = getParent_cid(selectList, v.getCatId());
            List<Catelog2Vo> catelog2Vos = null;
            if (categoryEntities != null) {
                catelog2Vos = categoryEntities.stream().map(l2 -> {
                    Catelog2Vo catelog2Vo = new Catelog2Vo(v.getCatId().toString(), null, l2.getCatId().toString(), l2.getName());
                    //1.找当前二级分类的三级分类封装成vo
                    List<CategoryEntity> level3Catelog = getParent_cid(selectList, l2.getCatId());
                    if (level3Catelog != null) {
                        List<Catelog2Vo.Catelog3Vo> collect = level3Catelog.stream().map(l3 -> {
                            //封装成指定格式
                            Catelog2Vo.Catelog3Vo catelog3Vo = new Catelog2Vo.Catelog3Vo(l2.getCatId().toString(), l3.getCatId().toString(), l3.getName());
                            return catelog3Vo;
                        }).collect(Collectors.toList());
                        catelog2Vo.setCatalog3List(collect);
                    }
                    return catelog2Vo;
                }).collect(Collectors.toList());
            }
            return catelog2Vos;
        }));
        //3.查到的数据再放入缓存,将对象转为json放在缓存中
        String s = JSON.toJSONString(parent_cid);
        redisTemplate.opsForValue().set("catalogJSON", s, 1, TimeUnit.DAYS);
        return parent_cid;
    }

    //从数据库查询并封装整个数据
    public Map<String, List<Catelog2Vo>> getCatalogJsonFromDbWithLocalLock() {
        //只要是同一把锁，需要这个锁的所有线程
        //synchronized (this),SpringBoot所有的组件在容器中都是单例的
        //TODO 本地锁：synchronized，JUC(lock)，在分布式情况下，想要锁住所有，必须使用分布式锁
        synchronized (this){
            //得到锁以后，我们应该再去缓存中确定一次，如果没有才需要继续查询
            return getDataFromDb();
        }
    }

    private List<CategoryEntity> getParent_cid(List<CategoryEntity> selectList,Long parent_cid) {
        List<CategoryEntity> collect = selectList.stream().filter(item->item.getParentCid() == parent_cid).collect(Collectors.toList());
        return collect;
//        return baseMapper.selectList(new QueryWrapper<CategoryEntity>().eq("parent_cid", v.getCatId()));
    }

    //225,25,2
    private List<Long> findParentPath(Long catelogId,List<Long> paths){
        //收集当前节点Id
        paths.add(catelogId);
        CategoryEntity byId = this.getById(catelogId);
        if(byId.getParentCid()!=0){
            findParentPath(byId.getParentCid(),paths);
        }
        return paths;
    }

    @Override
    public List<CategoryEntity> listWithTree() {
        List<CategoryEntity> entities = baseMapper.selectList(null);

        //找出所有的一级分类
        List<CategoryEntity> level1Menus = entities.stream().filter(categoryEntity ->
             categoryEntity.getParentCid() == 0
        ).map(menu->{
            menu.setChildren(getChildrens(menu,entities));
            return menu;
        }).sorted((menu1,menue2)->{
            return (menu1.getSort()==null?0:menu1.getSort()) - (menue2.getSort()==null?0: menue2.getSort());
        }).collect(Collectors.toList());
        return level1Menus;
    }

    //递归查找所有菜单的子菜单
    private List<CategoryEntity> getChildrens(CategoryEntity root,List<CategoryEntity> all){

        List<CategoryEntity> children =all.stream().filter(categoryEntity->{
            return  categoryEntity.getParentCid() == root.getCatId();
        }).map((categoryEntity)->{
            //找到子菜单
            categoryEntity.setChildren(getChildrens(categoryEntity,all));
            return categoryEntity;
        }).sorted((menu1,menue2)->{
            //菜单的排序
            return (menu1.getSort()==null?0:menu1.getSort()) - (menue2.getSort()==null?0: menue2.getSort());
        }).collect(Collectors.toList());

        return children;
    }
}