package com.lovely602.langchain4j.image.controller;


import dev.langchain4j.data.message.ImageContent;
import dev.langchain4j.data.message.TextContent;
import dev.langchain4j.data.message.UserMessage;
import dev.langchain4j.model.chat.ChatModel;
import dev.langchain4j.model.chat.response.ChatResponse;
import lombok.extern.slf4j.Slf4j;
import org.springframework.beans.factory.annotation.Autowired;
import org.springframework.beans.factory.annotation.Qualifier;
import org.springframework.core.io.ClassPathResource;
import org.springframework.web.bind.annotation.GetMapping;
import org.springframework.web.bind.annotation.RequestMapping;
import org.springframework.web.bind.annotation.RestController;

import java.io.IOException;
import java.util.Base64;

/**
 * 图片理解模型调用
 * @author lizhixing
 */
@Slf4j
@RestController
@RequestMapping(value = "/image")
public class ImageModelController {

    private static final String IMAGE_URL = "static/images/mi.jpg";

    @Autowired
    @Qualifier("qwenImageChatModel")
    private ChatModel qwenImageChatModel;

    /**
     * 图片理解模型调用
     */
    @GetMapping(value = "/understand")
    public String understand() throws IOException {

        ClassPathResource classPathResource = new ClassPathResource(IMAGE_URL);

        //第一步，图片转码：通过Base64编码将图片转化为字符串
        byte[] bytes = classPathResource.getContentAsByteArray();
        String base64Data = Base64.getEncoder().encodeToString(bytes);

        //第二步，提示词指定：结合ImageContent和TextContent一起发送到模型进行处理。
        UserMessage userMessage = UserMessage.from(
                TextContent.from("解释下这张图大概描述了什么信息"),
                ImageContent.from(base64Data, "image/jpg")
        );

        //第三步，API调用：使用OpenAiChatModel来构建请求，并通过chat()方法调用模型。
        //请求内容包括文本提示和图片，模型会根据输入返回分析结果。
        ChatResponse chatResponse = qwenImageChatModel.chat(userMessage);

        //第四步，解析与输出：从ChatResponse中获取AI大模型的回复，打印出处理后的结果。
        System.out.println(chatResponse.aiMessage().text());

        //返回前台
        return chatResponse.aiMessage().text();
    }


}
