package com.zsqat.eshop.product.service.impl;

import com.alibaba.druid.util.StringUtils;
import com.alibaba.fastjson.JSON;
import com.alibaba.fastjson.TypeReference;
import com.zsqat.eshop.product.service.CategoryBrandRelationService;
import com.zsqat.eshop.product.vo.Category2Vo;
import lombok.extern.slf4j.Slf4j;
import org.redisson.api.RLock;
import org.redisson.api.RReadWriteLock;
import org.redisson.api.RedissonClient;
import org.springframework.beans.factory.annotation.Autowired;
import org.springframework.cache.annotation.CacheEvict;
import org.springframework.cache.annotation.Cacheable;
import org.springframework.data.redis.core.StringRedisTemplate;
import org.springframework.data.redis.core.ValueOperations;
import org.springframework.data.redis.core.script.DefaultRedisScript;
import org.springframework.stereotype.Service;
import java.util.*;
import java.util.concurrent.TimeUnit;
import java.util.stream.Collectors;
import com.baomidou.mybatisplus.core.conditions.query.QueryWrapper;
import com.baomidou.mybatisplus.core.metadata.IPage;
import com.baomidou.mybatisplus.extension.service.impl.ServiceImpl;
import com.zsqat.common.utils.PageUtils;
import com.zsqat.common.utils.Query;
import com.zsqat.eshop.product.dao.CategoryDao;
import com.zsqat.eshop.product.entity.CategoryEntity;
import com.zsqat.eshop.product.service.CategoryService;
import org.springframework.transaction.annotation.Transactional;

import javax.annotation.Resource;

@Slf4j
@Service("categoryService")
public class CategoryServiceImpl extends ServiceImpl<CategoryDao, CategoryEntity> implements CategoryService {
  @Resource
  private CategoryBrandRelationService categoryBrandRelationService;
  @Autowired
  private StringRedisTemplate redisTemplate;

  @Resource
  private RedissonClient redissonClient;

  // 获取分类的树状列表
  // 因为后台访问不是高并发
  // 在前端src/router/index.js 路由拦截时获取菜单列表, 添加并保存本地存储
  @Override
  public List<CategoryEntity> getTreeList() {
    // 1. 查询出所有分类
    List<CategoryEntity> categories = this.baseMapper.selectList(null);

    // 2.组装成父子的树形结构
    // 2.1 查找所有一级分类
    return categories.stream()
        .filter(x -> x.getParentCid() == 0) // 得到所有的一级分类
        .peek(y -> y.setChildCategory(getChildCategory(y, categories)))
        .sorted(Comparator.comparing(CategoryEntity::getSort, Comparator.nullsFirst(Comparator.naturalOrder())))
        .collect(Collectors.toList());
  }

  // 递归查找所有分类的子分类
  private List<CategoryEntity> getChildCategory(CategoryEntity category, List<CategoryEntity> categories) {
    return categories.stream()
        .filter(x -> x.getParentCid().equals(category.getCatId()))
        .peek(y -> y.setChildCategory(getChildCategory(y, categories)))
        .sorted(Comparator.comparing(CategoryEntity::getSort, Comparator.nullsFirst(Comparator.naturalOrder())))
        .collect(Collectors.toList());
  }

  // 查询分类全路径
  @Override
  public Long[] findCategoryPath(Long categoryId) {
    List<Long> paths = new ArrayList<>();
    // 递归查询是否还有父节点
    List<Long> parentPath = findParentPath(categoryId, paths);
    // 进行一个逆序，因为查询时是从 3级->2级->1级，正常显示是：1级->2级->3级
    Collections.reverse(parentPath);
    return parentPath.toArray(new Long[parentPath.size()]);
  }

  /**
   * 级联更新所有关联的数据
   *
   * @CacheEvict:失效模式
   * @CachePut:双写模式，需要有返回值
   * 1.同时进行多种缓存操作：@Caching
   * 2.指定删除某个分区下的所有数据 @CacheEvict(value = "category", allEntries = true)
   * 3.存储同一类型的数据，都可以指定为同一分区
   * @param category
   */
   // 更新分类数据的时候，将缓存到redis中的一级和三级分类数据都清空。
   // @Caching(evict = {
   //         @CacheEvict(value = "category", key = "'getLevel1Category'"),
   //         @CacheEvict(value = "category", key = "'getCategoryJson'")
   // })

  // 表示要删除"category"分区下的所有数据。
  @CacheEvict(value = "category", allEntries = true)
  @Transactional(rollbackFor = Exception.class)
  @Override
  public void updateDetail(CategoryEntity category) {
    baseMapper.updateById(category);
    if (!StringUtils.isEmpty(category.getName())) {
      categoryBrandRelationService.updateCategory(category.getCatId(), category.getName());
    }
  }

  private List<Long> findParentPath(Long categoryId, List<Long> paths) {
    // 1、收集当前节点id
    paths.add(categoryId);
    // 根据当前分类id查询信息
    CategoryEntity cetegory = this.getById(categoryId);
    //如果当前不是父分类
    if (cetegory.getParentCid() != 0) {
      findParentPath(cetegory.getParentCid(), paths);
    }
    return paths;
  }

  /**
   * 每一个需要缓存的数据我们都来指定要放到那个名字的缓存。[缓存的分区(按照业务类型分)]
   * 代表当前方法的结果需要缓存,如果缓存中有该方法返回结果,方法都不用调用,如果缓存中没有该方法返回结果,会调用方法。最后将方法的结果放入缓存
   * 默认行为
   *      如果缓存中有,方法不再调用
   *      key是默认生成的: 缓存的名字::SimpleKey::[](自动生成key值)
   *      缓存的value值,默认使用jdk序列化机制，将序列化的数据存到redis中
   *      默认时间是 -1;
   *
   *   自定义操作: key的生成
   *      指定生成缓存的key: key属性指定,接收一个SpEL
   *      指定缓存的数据的存活时间:配置文档中修改存活时间
   *      将数据保存为json格式
   *
   *
   * Spring-Cache的不足之处:
   *  1).读模式
   *      缓存穿透: 查询一个null数据。解决方案：缓存空数据
   *      缓存击穿: 大量并发进来同时查询一个正好过期的数据。解决方案: 加锁, 默认是无加锁的;使用sync = true来解决击穿问题
   *      缓存雪崩: 大量的key同时过期。解决: 加随机时间。加上过期时间
   *  2).写模式: (缓存与数据库一致)
   *      1).读写加锁。
   *      2).引入Canal,感知到MySQL的更新去更新Redis
   *      3).读多写多,直接去数据库查询就行
   *
   *  总结:
   *      常规数据(读多写少,即时性,一致性要求不高的数据，完全可以使用Spring-Cache): 写模式(只要缓存的数据有过期时间就足够了)
   *      特殊数据: 特殊设计
   *
   *  原理:
   *      CacheManager(RedisCacheManager)->Cache(RedisCache)->Cache负责缓存的读写
   * @return
   */
  // 获取一级分类
  // @Cacheable({"category"})
  @Cacheable(value = {"category"}, key = "#root.method.name", sync = true)
  @Override
  public List<CategoryEntity> getLevel1Category() {
    return baseMapper.selectList(new QueryWrapper<CategoryEntity>().eq("parent_cid", 0));
  }

  // 通过父分类找父分类下的所有子类(不查找孙子类)
  private List<CategoryEntity> getChildCategoriesByParentId(List<CategoryEntity> selectList, Long parentCid) {
    List<CategoryEntity> categoryEntities = selectList.stream().filter(item -> item.getParentCid().equals(parentCid)).collect(Collectors.toList());
    return categoryEntities;
  }

  /**
   * 逻辑是
   * 1.根据一级分类，找到对应的二级分类
   * 2.将得到的二级分类，封装到Category2Vo中
   * 3.根据二级分类，得到对应的三级分类
   * 4.将三级分类封装到Category3List
   */
  // 演进一：直接数据库形式查询三级分类数据
  private Map<String, List<Category2Vo>> getCategoryFromDb() {
    // 将数据库的多次查询变为一次,得到所有的分类信息(包括子类，孙子类)
    List<CategoryEntity> AllCategories = this.baseMapper.selectList(null);

    // 1、查出所有分类
    // 1、1)查出所有一级分类
    List<CategoryEntity> level1Categories = getChildCategoriesByParentId(AllCategories, 0L);

    // 封装数据
    return level1Categories.stream()
        .collect(Collectors.toMap(k -> k.getCatId().toString(), v -> {
        // 1、每一个的一级分类,查到这个一级分类的二级分类
        List<CategoryEntity> level2Categories = getChildCategoriesByParentId(AllCategories, v.getCatId());

        // 2、封装上面的结果
        List<Category2Vo> category2Vos = null;
        if (level2Categories != null) {
          category2Vos = level2Categories.stream().map(l2 -> {
          Category2Vo category2Vo = new Category2Vo(v.getCatId().toString(), null, l2.getCatId().toString(), l2.getName());

          //1、找当前二级分类的三级分类封装成vo
          List<CategoryEntity> level3Categories = getChildCategoriesByParentId(AllCategories, l2.getCatId());

          if (level3Categories != null) {
            List<Category2Vo.Category3Vo> category3Vos = level3Categories.stream().map(l3 -> {
              //2、封装成指定格式
              return new Category2Vo.Category3Vo(l2.getCatId().toString(), l3.getCatId().toString(), l3.getName());

            }).collect(Collectors.toList());
            category2Vo.setCategory3List(category3Vos);
          }
          return category2Vo;
        }).collect(Collectors.toList());
      }
      return category2Vos;
    }));
  }

  /*
   *  对于复杂的业务，已经不能够通过代码层面的优化和数据库层面的优化，来达到增加吞吐量的目的。
   *  这就想要使用到缓存。
   *  哪些数据适合放入缓存？
   *    即时性、数据一致性要求不高的
   *    访问量大且更新频率不高的数据(读多、写少)。
   *
   *  一个服务的不同副本共享同一个缓存空间，缓存放置到缓存中间件中，
   *  这个缓存中间件可以是redis等，而且缓存中间件也是可以水平或纵向扩展的，
   *  如 Redis 可以使用 redis 集群。它打破了缓存容量的限制，能够做到高可用，高性能。
   *  演进二：从缓存中查询三级分类数据,无锁
  */
  private Map<String, List<Category2Vo>> getCategoryJsonNoLock() {
    // 给缓存中放json字符串，拿出json字符串，还要逆转为能用的对象类型【序列化与反序列化】
    // 1. 加入缓存逻辑
    // JSON 好处是跨语言，跨平台兼容。
    String categoryJSON = redisTemplate.opsForValue().get("categoryJSON");
    if (StringUtils.isEmpty(categoryJSON)){
      // 2. 缓存中没有，查询数据库
      Map<String, List<Category2Vo>> mapCategories = getCategoryJsonFromDB();
      // 3. 将查到的数据再放入缓存，将对象转为JSON在缓存中
      categoryJSON = JSON.toJSONString(mapCategories);
      redisTemplate.opsForValue().set("categoryJSON", categoryJSON);
      return mapCategories;
    }
    // 转为我们指定的对象。
    Map<String, List<Category2Vo>> mapCategories = JSON.parseObject(categoryJSON, new TypeReference<Map<String, List<Category2Vo>>>(){});
    return mapCategories;
  }

  private Map<String, List<Category2Vo>> getCategoryJsonFromDB() {
    String categoryJSON = redisTemplate.opsForValue().get("categoryJSON");
    // 使用DCL（双端检锁机制）来完成对于数据库的访问
    // 双端检锁机制来控制线程的并发访问数据库。
    // 一个线程进入到临界区之前，进行缓存中是否有数据，进入到临界区后，再次判断缓存中是否有数据，
    // 这样做的目的是避免阻塞在临界区的多个线程，在其他线程释放锁后，重复进行数据库的查询和查询结果放入缓存操作。
    if (!StringUtils.isEmpty(categoryJSON)) {
      // 如果缓存不为null直接缓存
      Map<String, List<Category2Vo>> mapCategories = JSON.parseObject(categoryJSON, new TypeReference<Map<String, List<Category2Vo>>>() {
      });
      return mapCategories;
    }
    System.out.println("查询了数据库。。。。。");

    List<CategoryEntity> AllCategories = baseMapper.selectList(null);
    // 查出所有一级分类
    List<CategoryEntity> level1Categories = getChildCategoriesByParentId(AllCategories, 0L);

    // 2.封装数据
    Map<String, List<Category2Vo>> mapLevel2Category = level1Categories.stream().collect(Collectors.toMap(k -> k.getCatId().toString(), v -> {
      // 1.每一个的一级分类，查到这个一级分类的二级分类
      List<CategoryEntity> level2Categories = getChildCategoriesByParentId(AllCategories, v.getCatId());
      // 2.封装上面的结果
      List<Category2Vo> category2Vos = null;
      if (level2Categories != null) {
        category2Vos = level2Categories.stream().map(l2 -> {
          Category2Vo catelog2Vo = new Category2Vo(v.getCatId().toString(), null, l2.getCatId().toString(), l2.getName());
          // 1、找当前二级分类的三级分类封装vo
          List<CategoryEntity> level3Categories = getChildCategoriesByParentId(AllCategories, l2.getCatId());
          if (level3Categories != null) {
            List<Category2Vo.Category3Vo> collect = level3Categories.stream().map(l3 -> {
              // 2、封装成指定格式
              Category2Vo.Category3Vo category3Vo = new Category2Vo.Category3Vo(l2.getCatId().toString(), l3.getCatId().toString(), l3.getName());
              return category3Vo;
            }).collect(Collectors.toList());
            catelog2Vo.setCategory3List(collect);
          }
          return catelog2Vo;
        }).collect(Collectors.toList());
      }
      return category2Vos;
    }));
    // 3.将查到的数据再放入缓存，将对象转为JSON在缓存中
    categoryJSON = JSON.toJSONString(mapLevel2Category);
    redisTemplate.opsForValue().set("categoryJSON", categoryJSON, 1, TimeUnit.DAYS);
    return mapLevel2Category;
  }


  /**
   * 高并发下缓存失效问题 -- 缓存击穿、穿透、雪崩
   * 解决办法：加失效时间，加锁机制
   * 演进三：从数据库查询并封装数据: 本地锁
   *
   */
  private Map<String, List<Category2Vo>> getCategoryJsonFromDbWithLocalLock() {
    // 只要是同一把锁，就能锁住这个锁的所有线程
    // 1、synchronized (this)：SpringBoot所有的组件在容器中都是单例的。
    // TODO 本地锁：synchronized，JUC（Lock),在分布式情况下，想要锁住所有，必须使用分布式锁
    synchronized (this) {
      // 得到锁以后，我们应该再去缓存中确定一次，如果没有才需要继续查询
      return getCategoryJsonFromDB();
    }
  }

  /**
   * 演进三在"单体"应用上实现了多线程的并发访问数据库一次，其他线程都是从缓存取数据的
   * 演进四：从数据库查询并封装数据:分布式锁
   * @return
   */
  private Map<String, List<Category2Vo>> getCategoryJsonFromDbWithRedisLock() {
    // 1、占分布式锁。去redis占坑
    // 占锁的时候，值指定为uuid，每个人匹配是自己的锁才删除
    String uuid = UUID.randomUUID().toString();
    // 设置锁的自动过期，即使没有删除, 会自动删除。
    // 设置过期时间和占位必须是原子的, 不可分为两步。
    // Boolean lock = redisTemplate.opsForValue().setIfAbsent("lock", "111");
    // if (lock) {
    //  redisTemplate.expire("lock", 30, TimeUnit.SECONDS);
    // }
    Boolean lock = redisTemplate.opsForValue().setIfAbsent("lock", uuid,300, TimeUnit.SECONDS);
    if (lock) {
      System.out.println("获取分布式锁成功...");
      Map<String, List<Category2Vo>> dataFromDb = null;

      // 加锁成功...执行业务
      // dataFromDb = getCategoryJsonFromDB();
      // 先去redis查询下保证当前的锁是自己的
      // 获取值对比，对比成功删除，但是整个操作并非是原子的
      // String lockValue = redisTemplate.opsForValue().get("lock");
      // if (uuid.equals(lockValue)) {
      //     // 删除自己的锁
      //     redisTemplate.delete("lock");
      // }

      // 为啥不用呢？？？
      // 问题：如果正好判断是当前值，正要删除锁时，锁已经过期，别人已经设置到了新的值。
      // 那么我们删除的是别人的锁。
      // 解决：删除锁必须保证原子性，使用redis + Lua脚本完成。

      try {
        // 加锁成功...执行业务
        dataFromDb = getCategoryJsonFromDB();
      } finally {
        String script = "if redis.call('get', KEYS[1]) == ARGV[1] then return redis.call('del', KEYS[1]) else return 0 end";

        // 删除锁，整个操作是原子的。
        redisTemplate.execute(new DefaultRedisScript<>(script, Long.class), Arrays.asList("lock"), uuid);

      }
      return dataFromDb;
    } else {
      System.out.println("获取分布式锁失败...等待重试...");
      // 加锁失败...重试机制
      // 休眠一百毫秒
      try {
        TimeUnit.MILLISECONDS.sleep(100);
      } catch (InterruptedException e) {
        e.printStackTrace();
      }
      // 自旋的方式
      return getCategoryJsonFromDbWithRedisLock();
    }
  }

  /**
   * 即多个实例同时更新缓存，由于卡顿等因素可能导致后面更新超前等问题
   * 缓存里的数据如何和数据库的数据保持一致？？
   * 缓存数据一致性
   * 1).双写模式: 读写数据的时候，加上分布式的读写锁。
   * 2).失效模式: 缓存的所有数据都有过期时间，数据过期下一次查询发主动更新。
   * @return
   */
  private Map<String, List<Category2Vo>> getCategoryJsonFromDbWithRedissonLock() {

    // 1、占分布式锁。去redis占坑
    // (锁的粒度，越细越快:具体缓存的是某个数据，11号商品) product-11-lock
    // RLock categoryJsonLock = redissonClient.getLock("categoryJson-lock");
    // 创建读锁
    RReadWriteLock readWriteLock = redissonClient.getReadWriteLock("categoryJson-lock");
    RLock rLock = readWriteLock.readLock();
    Map<String, List<Category2Vo>> dataFromDb = null;
    try {
      rLock.lock();
      // 加锁成功...执行业务
      dataFromDb = getCategoryJsonFromDB();
    } finally {
      rLock.unlock();
    }
    return dataFromDb;
  }


  // TODO 产生堆外内存溢出OutOfDirectMemoryError:
  // 1).springboot2.0以后默认使用lettuce操作redis的客户端，使用netty进行网络通信
  // 2).lettuce的bug导致netty堆外内存溢出，可设置：-Dio.netty.maxDirectMemory进行设置
  // 解决方案：不能直接使用-Dio.netty.maxDirectMemory去调大堆外内存
  //  1).升级lettuce客户端。
  //  2).切换使用jedis
  @Override
  public Map<String, List<Category2Vo>> getCategoryJson0() {
    // 给缓存中放json字符串，拿出的json字符串，反序列为能用的对象

    /**
     * 1.空结果缓存: 解决缓存穿透问题
     * 2.设置过期时间(加随机值): 解决缓存雪崩
     * 3.加锁: 解决缓存击穿问题
     */

    // 1.加入缓存逻辑,缓存中存的数据是json字符串
    // JSON跨语言,跨平台兼容。
    ValueOperations<String, String> ops = redisTemplate.opsForValue();
    String categoryJson = ops.get("categoryJson");
    if (StringUtils.isEmpty(categoryJson)) {
      System.out.println("缓存不命中...查询数据库...");
      // 2.缓存中没有数据，查询数据库
      return getCategoryJsonFromDbWithRedissonLock();
    }

    System.out.println("缓存命中...直接返回...");
    // 转为指定的对象
    return JSON.parseObject(categoryJson, new TypeReference<Map<String, List<Category2Vo>>>(){});
  }

  // 演进五：在以前直接数据库形式查询三级分类数据基础上整合SpringCache
  @Cacheable(value = "category",key = "#root.methodName")
  public Map<String, List<Category2Vo>> getCategoryJson() {
    // 将数据库的多次查询变为一次,得到所有的分类信息(包括子类，孙子类)
    List<CategoryEntity> AllCategories = this.baseMapper.selectList(null);

    log.info("我去查询数据库了...");
    // 1、查出所有分类
    // 1、1)查出所有一级分类
    List<CategoryEntity> level1Categories = getChildCategoriesByParentId(AllCategories, 0L);

    // 封装数据
    return level1Categories.stream()
        .collect(Collectors.toMap(k -> k.getCatId().toString(), v -> {
          // 1、每一个的一级分类,查到这个一级分类的二级分类
          List<CategoryEntity> level2Categories = getChildCategoriesByParentId(AllCategories, v.getCatId());

          // 2、封装上面的结果
          List<Category2Vo> category2Vos = null;
          if (level2Categories != null) {
            category2Vos = level2Categories.stream().map(l2 -> {
              Category2Vo category2Vo = new Category2Vo(v.getCatId().toString(), null, l2.getCatId().toString(), l2.getName());

              //1、找当前二级分类的三级分类封装成vo
              List<CategoryEntity> level3Categories = getChildCategoriesByParentId(AllCategories, l2.getCatId());

              if (level3Categories != null) {
                List<Category2Vo.Category3Vo> category3Vos = level3Categories.stream().map(l3 -> {
                  //2、封装成指定格式
                  return new Category2Vo.Category3Vo(l2.getCatId().toString(), l3.getCatId().toString(), l3.getName());

                }).collect(Collectors.toList());
                category2Vo.setCategory3List(category3Vos);
              }
              return category2Vo;
            }).collect(Collectors.toList());
          }
          return category2Vos;
        }));
  }
}

/*
* 简单的总结1：
*   缓存穿透是指查询一个永不存在的数据；null结果缓存，并加入短暂过期时间。
*   缓存雪崩是值大面积key同时失效问题；原有的失效时间基础上增加一个随机值，比如1-5分钟随机。
	  缓存击穿是指高频key失效问题；加锁，大量并发只让一个人去查，其他人等待，查到后释放锁，其他人获得锁。
*
*
* 简单总结2：
*   分布式锁的原则：
*   独享: 即互斥属性，在同一时刻，一个资源只能有一把锁被一个客户端持有。
*   无死锁: 当持有锁的客户端蹦溃后，锁仍然可以被其它客户端获取。
*   容错性: 当部分节点失活之后，其余节点客户端依然可以获取和释放锁。
*   统一性: 即释放锁的客户端只能由获取锁的客户端释放。
*
*   1. StringRedisTemplate 实现分布式锁
*   该加锁方法仅针对单实例 Redis 可实现分布式加锁，对于 Redis 集群则无法使用。
*
*   StringRedisTemplate 实现分布式锁原理：
*     redis 对 set 命令中的 NX 选项和对 lua 脚本的执行都是原子的，因此当多个客户端去争抢执行上锁或解锁代码时，
*     最终只会有一个客户端执行成功。同时 set 命令还可以指定 key 的有效期，这样即使当前客户端蹦溃，
*     过一段时间锁也会被 redis 自动释放，这就给了其它客户端获取锁的机会。
*
*
*
*
*   推荐的使用方式是，当 redis 的架构是单实例模式时，如果存在主备且可以忍受小概率的锁出错，那么就可以直接使用
*   getCategoryJsonFromDbWithRedisLock()中的代码，
*   当然最严谨的方式还是使用官方的 Redlock 算法实现。
*
*   要是完全很好的实现分布式锁，还需要开启守护线程去动态续航expire时间，防止过期，下面引入了redisson框架，
    框架包含一个watchdog看门狗，可以去开启一个守护线程去动态续航。
* */