import cv2  # 导入cv2模块,用于读取和处理图像
import numpy as np  # 导入numpy模块,主要用于数值计算
import os  # 导入os模块,用于处理文件和目录
from os.path import exists  # 从os.path模块导入exists函数,用于检测文件或目录是否存在
from imutils import paths  # 导入imutils中的paths工具,用于获取文件路径
import pickle  # 导入pickle模块,用于序列化和反序列化Python对象结构
from tqdm import tqdm  # 导入tqdm模块,用于在循环中添加进度条

import logging  # 用于记录日志
logging.basicConfig(level=logging.INFO, format='%(asctime)s - %(levelname)s - %(message)s') # 配置logging

import os

# 定义函数get_size,获取文件大小,返回文件大小的兆字节表示
def get_size(file):
    size_bytes = os.path.getsize(file)  # 获取文件的字节大小,用于了解文件的大小
    size_megabytes = size_bytes / (1024 * 1024)  # 将字节转换为兆字节
    return size_megabytes  # 返回兆字节大小

# 定义函数createXY,用于从图像创建特征(X)和标签(y)
def createXY(train_folder, dest_folder, batch_size=64):
    x_file_path = os.path.join(dest_folder, "X.pkl")  # 设置X文件的路径,用于保存特征数据
    y_file_path = os.path.join(dest_folder, "y.pkl")  # 设置y文件的路径,用于保存标签数据

    # 如果 X 和 y 已经存在，则直接读取，不再重新构建
    if os.path.exists(x_file_path) and os.path.exists(y_file_path):
        logging.info("X和y已经存在，直接读取")  # 提示用户X和y文件已经存在
        logging.info(f"X文件大小:{get_size(x_file_path):.2f}MB")  # 打印X文件的大小
        logging.info(f"y文件大小:{get_size(y_file_path):.2f}MB")  # 打印y文件的大小
        with open(x_file_path, 'rb') as f:  # 打开X文件准备读取
            X = pickle.load(f)  # 读取X文件中的数据
        with open(y_file_path, 'rb') as f:  # 打开y文件准备读取
            y = pickle.load(f)  # 读取y文件中的数据
        return X, y  # 返回读取的X和y数据

    logging.info(f"从文件夹:{train_folder} 读取所有图像，生成X和y")  # 提示用户开始读取图像并生成X和y
    image_paths = list(paths.list_images(train_folder))  # 获取训练文件夹中所有图像的路径

    X = []  # 初始化X列表,用于存储特征
    y = []  # 初始化y列表,用于存储标签
    
    # # 根据传入的方法选择不同的模型
    # if method == 'vgg':
    #     model = VGG16(weights='imagenet', include_top=False, pooling="max")  # 加载VGG16模型,不包括顶层,使用最大池化
    #     logging.info("完成构建 VGG16 模型")  # 提示用户VGG16模型构建完成
    # elif method == 'flat':
    #     model = None  # 如果方法为'flat',不使用任何预训练模型

    # 计算需要的批次数
    num_batches = len(image_paths) // batch_size + (1 if len(image_paths) % batch_size else 0)

    # 使用进度条对批次进行循环处理
    for idx in tqdm(range(num_batches), desc="读取图像"):
        batch_images = []  # 初始化存储批次图像的列表
        batch_labels = []  # 初始化存储批次标签的列表
        
        start = idx * batch_size  # 计算批次开始的索引
        end = min((idx + 1) * batch_size, len(image_paths))  # 计算批次结束的索引

        # 对于每个批次中的图像
        for i in range(start, end):
            image_path = image_paths[i]  # 获取图像路径
            img = cv2.imread(image_path, 0)  # 以灰度模式读取图像
            img = cv2.resize(img, (32, 32))  # 调整图像大小到32x32
            batch_images.append(img)  # 将图像数组添加到批次图像列表
            
            label = image_path.split(os.path.sep)[-1].split(".")[0]  # 从文件名中解析标签
            label = 1 if label == 'dog' else 0  # 如果标签是'dog'则为1,否则为0
            batch_labels.extend([label])  # 将标签添加到批次标签列表

        batch_images = np.array(batch_images)  # 将批次图像列表转换为numpy数组
        batch_pixels = batch_images.reshape((batch_images.shape[0], -1))  # 将图像展平

        X.extend(batch_pixels)  # 将处理后的图像特征添加到X列表
        y.extend(batch_labels)  # 将标签添加到y列表

    logging.info(f"X.shape: {np.shape(X)}")  # 打印X的形状
    logging.info(f"y.shape: {np.shape(y)}")  # 打印y的形状
        
    # 将X和y分别序列化到文件
    with open(x_file_path, 'wb') as f:
        pickle.dump(X, f)  # 序列化X并写入文件
        logging.info(f"X文件大小: {get_size(x_file_path)} MB")  # 打印X文件的大小

    with open(y_file_path, 'wb') as f:
        pickle.dump(y, f)  # 序列化y并写入文件
        logging.info(f"y文件大小: {get_size(y_file_path)}, MB")  # 打印y文件的大小

    return X, y  # 返回构建的X和y


