package com.rolerealm.service;

import java.util.function.Consumer;

/**
 * 流式LLM服务接口
 * 
 * @author RoleRealm Team
 * @version 1.0.0
 */
public interface StreamingLLMService {
    
    /**
     * 流式推理
     * 
     * @param prompt 输入提示
     * @param languageOrModel 语言或模型
     * @param onChunk 接收到数据块时的回调
     * @param onComplete 完成时的回调
     * @param onError 错误时的回调
     */
    void streamInfer(String prompt, String languageOrModel, 
                    Consumer<String> onChunk, 
                    Runnable onComplete, 
                    Consumer<Exception> onError);
}
